並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 28 件 / 28件

新着順 人気順

llmの検索結果1 - 28 件 / 28件

  • 無料で使える最高のAIノート『NotebookLM』使い方と活用事例|AI-Bridge Lab こば

    こんにちは!最近、ChatGPTと話しすぎてAI風の口調がうつってきたAI-Bridge Labのこばです!👋 今回の記事はGoogleのサービス『NotebookLM』(ノートブックLM)について 1.NotebookLMの概要 2.使い方 3.具体例として過去のnote記事を全部読ませた結果どうなったか この3点を分かりやすくご紹介します! 先に結論だけお伝えするとかなり実用性が高くオススメのツールです! そしてこの記事を読んで頂ければご自身での活用法が想像できるようになると思いますので、ぜひ最後まで読んで頂けますと幸いです! 1.NotebookLMの概要公式サイト:https://notebooklm.google.com/ NotebookLMは、Googleが提供する生成AIサービスで、ユーザーのメモ書きやアップロードした資料を基に情報を整理し、質問に答えることができる革新的

      無料で使える最高のAIノート『NotebookLM』使い方と活用事例|AI-Bridge Lab こば
    • めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 (1/5)

      OpenAIは5月30日、同社のチャット型AI「ChatGPT」無料版ユーザーに向け、制限付きながら最新の大規模言語モデル「GPT-4o」および、これまで有料版ユーザーしか利用できなかった多くの機能を公開した(発表時のニュース記事)。 情報がとても多いので、今回の変更で無料版ユーザーは「なにができるようになったか」、そして「なにができないのか」を使い方中心にまとめた。 1. GPT-4oは回数制限あり チャット型AIアプリの心臓とも言える大規模言語モデル(LLM)、これまで無料版ユーザーは「GPT-3.5」という旧世代モデルしか利用できなかったが、今回の変更で回数制限(具体的な回数は明記されていない)はあるものの、最新モデルのGPT-4oが使えるようになった。 GPT-4oの利用に特に設定などは必要なく、無料アカウントにログインして普通に質問すればOK(使い方はちょっとわかりにくいのでこち

        めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 (1/5)
      • グーグルの生成AIサービス「NotebookLM」が日本でも一般公開、調査と制作を助けてくれるAIパートナー

          グーグルの生成AIサービス「NotebookLM」が日本でも一般公開、調査と制作を助けてくれるAIパートナー
        • GPT-4oをOCRとして使う - Re:ゼロから始めるML生活

          OpenAIからChatGPT-4oが発表されましたが、皆さんガンガンつかっていますでしょうか? さて、このChatGPT-4oですが、テキスト以外のデータも使用できるようになっているという特徴があります。 普通にテキストでのやり取りをしつつも画像データを扱えるということで、「実はこれいい感じのOCRとして使えるんじゃね?」って思っちゃったわけです。 ということで、今回はChatGPT-4oを使ってOCRを使うとどんなもんなのかやってみたいと思います。 やりたいこと やってみる とりあえずやってみる 請求書 名刺 参考文献 感想 やりたいこと 今回やりたいことはOCRです。早い話が画像ファイルを突っ込んでテキストを読み取りたいって感じです。 ただ、当たり前のようにOCRって言葉を使用していますがOCRって結構奥が深いです。 mediadrive.jp 単純に画像から文字を見つけて対応するテ

            GPT-4oをOCRとして使う - Re:ゼロから始めるML生活
          • 自分だけの信頼できるAIへ グーグル「NotebookLM」公開

              自分だけの信頼できるAIへ グーグル「NotebookLM」公開
            • ChatGPTでデータ分析、生成AIで「文系社員」が「分析官」に

              ◎「文系社員」でもデータ分析できる生成AIマニュアル by OUTPUT CAMP meets AI◎ 「イベントアンケートを取ったが、集計する時間がない」「販売データを収集したものの、分析手法が分からない」 文系のビジネスパーソンにとってデータ分析は、「やったほうが良さそうだが後回しにしてしまう」プラスアルファの仕事だ。大義名分がなければ他部署に依頼するのも難しい。 そこで頼れる相棒となるのが、生成AI(ジェネレーティブAI)だ。 AIプロピッカーの三菱総合研究所・比屋根 一雄さんはこう予測する。 「みんながミクロな意思決定に生成AIを使って、少しでも良い意思決定ができるようになると、世の中全体がデータに基づく合理的で無駄の少ない仕事をできるようになる。壮大なことを言えば、低いと言われている日本の生産性が、少しでも上がるのではないかという期待もしています。」 では、具体的にどの生成AIツ

                ChatGPTでデータ分析、生成AIで「文系社員」が「分析官」に
              • 「AIイラストって絵の勉強になる…?」取材を受けて考えたあれこれ|賢木イオ

                こんにちは、AI絵をやってたらいつのまにか人並みに絵が描けるようになってたおじさんです。前回の記事が微妙にバズったところ、美術関係の教育者の方から「AIで絵を学ぶのってどういう感じですか?うちの学生にもできますか?」というお問い合わせを相次いで頂きまして、今日は質問にお答えする中で考えたことをAI技術の進歩の振り返りとともに記事にしてみようと思います。 前回の記事( ▲ )を書いたのが今年3月のこと。その後、美術系の大学と専門学校、予備校の方から別々にDMを頂きまして、それぞれウェブインタビューのような形で1~2時間ほどお話ししました。インタビューの内容は、おおむねどの方も「これからの世代に美術を教える上で、画像生成AIについて触れないわけにはいかない。どのような距離感で扱えばよいのか決めかねており、実際に体験しているユーザーに話を聞いてみたい」という趣旨だったかと思います。 インタビュー

                  「AIイラストって絵の勉強になる…?」取材を受けて考えたあれこれ|賢木イオ
                • Open WebUI (Formerly Ollama WebUI) がすごい - Qiita

                  Open WebUIを使ってみました。 https://openwebui.com/ 当初は「Ollama WebUI」という名前だったようですが、今はOpen WebUIという名前に変わっています。Ollama専用じゃなくなったということでしょう。OpenAIに対応済みです。 早速使ってみました。もちろんBedrockで。 6/11 続編を書きました。 環境構築 Dockerですんなり構築です。Bedrockに対応はしてないので、「LiteLLM」を使って対応させます。 環境変数でこのあたりを指定 Ollamaを無効化 LiteLLMのエンドポイントをOpenAIのエンドポイントとして登録 APIキーを登録(LiteLLMとの通信には不要ですが、未指定だとOpen WebUIが正しく動作しませんでした) services: open-webui: image: ghcr.io/open-

                    Open WebUI (Formerly Ollama WebUI) がすごい - Qiita
                  • ChatGPTプログラミングのすすめ

                    ChatGPTなどの大規模言語モデル (Large Language Model; LLM) にプログラミングやリファクタリングをさせる場合、目的に合ったものが作られているかを何らかの方法で検証する必要がある。 プログラムの正しさを完全に保証する方法はないが、ある程度の正しさを継続して担保するための方法を探ってみたので以下にまとめた。 ポイントは、ChatGPTの生成したプログラムの検証にもやはりChatGPTの力を借りることである。 実行可能性と入出力のチェック プログラムを生成するタスクである場合、いつでも「実行できるか?」というチェックが可能である。これは自然言語の生成と大きく異なる点だろう。実行可能性を確かめることは最低限のチェック項目になる。 エラーが出力された場合、自力で修正するか、もしくは、エラーの内容をChatGPTに提示して修正を依頼し、再度実行可能かを確かめる。 入力・

                      ChatGPTプログラミングのすすめ
                    • 無料で自分専用のAIを日本語のウェブサイトやファイルを指定して作れるGoogleのAIサービス「NotebookLM」の使い方レビュー

                      GeminiやPaLM 2といった大規模言語モデルを使って任意のテキストの要約や提案をしてくれるGoogleのメモ作成アプリ「NotebookLM」が、日本語を含む200以上の国や地域に対応しました。記事作成時点では試験的に無料提供されているとのことで、実際に「NotebookLM」を使ってみました。 NotebookLM | Note Taking & Research Assistant Powered by AI https://notebooklm.google/ NotebookLM goes global with Slides support and better ways to fact-check https://blog.google/technology/ai/notebooklm-goes-global-support-for-websites-slides-fac

                        無料で自分専用のAIを日本語のウェブサイトやファイルを指定して作れるGoogleのAIサービス「NotebookLM」の使い方レビュー
                      • Googleの「Gemini 1.5 Pro」採用メモアプリ「NotebookLM」、日本でも利用可能に

                        Gemini 1.5 Proのマルチモーダル機能により、ソース内の画像やチャートに関する質問にも応える。 ソースを選択すると、データに基づく要約を表示し、その下のプロンプト枠で質問できるようになる。回答の文末には数字のついたラベルが表示され、ラベルにカーソルを合わせるとその文の根拠となるソースの部分が表示される。 また、ソースに基づいて、FAQ、ブリーフィング資料、学習ガイドなどの形式に変換する機能も追加された。 上の画像は、本稿筆者がNotebookLMに関するGoogleの2件の公式ブログのテキストと、アイティメディアのGoogle I/Oの記事のURLをソースとして指定したものだ。日本語設定のGoogleアカウントでは回答が日本語で表示されるが、日本語の記事へのURLの内容は元記事がシフトJIS形式の日本語テキストをUTF-8エンコーディングとして解釈されてしまったために文字化けして

                          Googleの「Gemini 1.5 Pro」採用メモアプリ「NotebookLM」、日本でも利用可能に
                        • 超長くてたくさんの資料も放り込めば、まとめてブレストにも付き合ってくれる有能助手「NotebookLM」の始め方(Google Tales) | テクノエッジ TechnoEdge

                          IT系海外速報を書いたり、翻訳を請け負ったりしています。初めてのスマートフォンはHTC Desire。その後はNexus 5からずっとGoogleさんオリジナルモデルを使っています。 Googleが久しぶりにわくわくするものを公開してくれました。その名は「NotebookLM」。Googleは“バーチャルリサーチアシスタント”だと紹介しています。 昨年7月に米国で利用可能になったものが、やっと日本でも使えるようになりました。名前からはいまひとつピンときませんが、使っているうちにじわじわと凄さが伝わってきます。 大雑把に言うと、自分が理解したいことに関連する情報を集めてNotebookLMに「ソース」として投げ込むと、それをもぐもぐ咀嚼して理解して「何でも聞いてください」状態になるのです。 (▲イラスト:ばじぃ) 記事を書くときは、複数の公式ブログやら過去のイベントの基調講演の動画やら自分で

                            超長くてたくさんの資料も放り込めば、まとめてブレストにも付き合ってくれる有能助手「NotebookLM」の始め方(Google Tales) | テクノエッジ TechnoEdge
                          • OpenAIがGPT-4の思考を1600万個の解釈可能なパターンに分解できたと発表

                            GPT-4などの大規模言語モデルは非常に高い性能を有していますが、各モデルがどのような思考を経て応答を出力しているのかは開発者ですら把握できていません。新たに、OpenAIが大規模言語モデルの思考を読み取る手法を開発し、GPT-4の思考を1600万個の解釈可能なパターンに分解できたことを発表しました。 Extracting Concepts from GPT-4 | OpenAI https://openai.com/index/extracting-concepts-from-gpt-4/ Scaling and evaluating sparse autoencoders https://cdn.openai.com/papers/sparse-autoencoders.pdf 一般的なソフトウェアは人間の設計に基づいて開発されているため、各機能の仕組みを理解した上で機能を修正したり安

                              OpenAIがGPT-4の思考を1600万個の解釈可能なパターンに分解できたと発表
                            • Doing RAG? Vector search is *not* enough

                              I'm concerned by the number of times I've heard, "oh, we can do RAG with retriever X, here's the vector search query." Yes, your retriever for a RAG flow should definitely support vector search, since that will let you find documents with similar semantics to a user's query, but vector search is not enough. Your retriever should support a full hybrid search, meaning that it can perform both a vect

                                Doing RAG? Vector search is *not* enough
                              • ローコードLLMアプリ開発環境「Dify」を使って、SynologyのNAS上で動くAIチャットを作る【イニシャルB】

                                  ローコードLLMアプリ開発環境「Dify」を使って、SynologyのNAS上で動くAIチャットを作る【イニシャルB】
                                • 自然言語とVision&Language

                                  東京大学大学院の2024年度講義「知能情報論」で使用した資料です. Vision&Language関連の研究について,深層学習初期から大規模モデルにいたるまでを概観しています. なお,資料作成時期は2024年5月下旬であり,内容はその時点で発表されていた研究等に基づいています.

                                    自然言語とVision&Language
                                  • LLM にコードを「差分」で書き換えさせるためのアイデア

                                    既存の LLM コード生成の問題 LLM は行カウントやワードカウントが苦手。 例えば自分は SourceMap を扱うコードのテストを書かせようとしたが、モックデータの line:column がガバガバな位置を指してまともにテストにならない。行カウント/ワードカウントができないのはつまり diff がうまく生成できない。 これらの問題があって、コードを生成するパイプラインを組む場合、 全文出力が主流になっている。 ここで何が問題になるかというと、コードが膨らんで来た時に、(書き変える対象が一部だとしても)生成が顕著に遅くなる。うまく生成できなかった時にリトライを繰り返すと、問題がさらに悪化する。 改善手法の提案: 明示的な Line Number の付与 最近の LLM は入力ウィンドウがある程度大きくても、そこそこの速度で応答する。(お金はかかるが...) 問題は生成速度にある。特に

                                      LLM にコードを「差分」で書き換えさせるためのアイデア
                                    • GNN-RAGで7BモデルでもGPT-4と同等の性能を引き出す

                                      導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 RAGのシステムでは一般的に、断片化されたテキストをEmbeddingによってベクトル化し、関連する情報を検索、そして質問に回答するという形式が採用されるかと思います。 しかし本来、RAGのデータソースは断片化されたテキストに限定はされていません。その一つとして、Knowledge Graph(知識グラフ)というものが存在します。 本記事では、そんなKnowledge Graphを利用した新しいRAGのシステム、GNN-RAGについて紹介します。 サマリー GNN-RAGは、Knowledge Graphから関連するデータの取得にGNNを使用します。この手法を利用することで、既存のKnowledge Gr

                                        GNN-RAGで7BモデルでもGPT-4と同等の性能を引き出す
                                      • LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携

                                        LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携 すべての経済活動のデジタル化を目指す株式会社LayerXは、AI・LLM事業部において、大規模言語モデル(LLM)を用いてドキュメントワークを効率化する、ノーコード・ノープロンプト生成AIプラットフォーム「Ai Workforce」をリリースしました。また開発・営業にあたっては日本マイクロソフト株式会社(以下、日本マイクロソフト)と連携。システム基盤には Microsoft Azure を活用し、セキュリティと柔軟性の両立を実現します。 AI・LLM事業部では今後、プロダクトマネージャーやエンジニア等の採用を強化し、エンタープライズ企業への提供を加速していきます。 概要 LayerXは2023年11月、企業や行政のLLM(大

                                          LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携
                                        • 「自称オープンソース生成AI」は本当に“オープン”なのか? 45種のAIモデルをオランダの研究者らが調査

                                          このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。 X: @shiropen2 オランダのRadboud University Nijmegenに所属する研究者らが発表した論文「Rethinking open source generative AI: open-washing and the EU AI Act」は、オープンソースと主張する生成AIを対象に、どの程度オープンなのかを調査した研究報告である。 近年、オープンであると主張する生成AIシステムが急増しているが、実際にはどの程度オープンなのかは疑問だ。「オープンソース」と謳いつつ、詳しく見てみると部分的にしか公開していないことはよくある。「オープンソース」は研究

                                            「自称オープンソース生成AI」は本当に“オープン”なのか? 45種のAIモデルをオランダの研究者らが調査
                                          • ElasticsearchによるZOZOTOWNへのベクトル検索の導入検討とその課題 - ZOZO TECH BLOG

                                            こんにちは。検索基盤部の橘です。ZOZOTOWNでは、商品検索エンジンとしてElasticsearchを利用し、大規模なデータに対して高速な全文検索を実現しています。 Elasticsearchに関する取り組みは以下の記事をご覧ください。 techblog.zozo.com 検索基盤部では、ZOZOTOWNの検索結果の品質向上を目指し、新しい検索手法の導入を検討しています。本記事ではベクトル検索と呼ばれる検索手法に関して得た知見を紹介します。 ※本記事はElasticsearchバージョン8.9に関する内容となっています。 目次 目次 ベクトル検索とは ベクトル検索に期待すること Elasticsearchを使用したベクトル検索の導入 導入の簡略化 デプロイ可能な埋め込みモデル ベクトル検索のクエリ ハイブリッド検索とは Elasticsearchを用いたハイブリッド検索 RRF(Reci

                                              ElasticsearchによるZOZOTOWNへのベクトル検索の導入検討とその課題 - ZOZO TECH BLOG
                                            • GoogleのNotebookLMで情報収集・勉強を効率化する - Qiita

                                              はじめに ◆この記事は何? NotebookLMの活用法を紹介する記事 ◆この記事のねらい NotebookLMを効果的に活用できるようになること ↓NotebookLMはこちらからアクセスできます。 先に結論 NotebookLMの良い点 pdfファイルやwebページを読み込み、それを元に回答する専用のチャットボットを簡単につくれる ソースとなるpdfファイル/webページ/テキストを簡単に追加・削除できる 引用した箇所を表示してくれる NotebookLMでできること NotebookLMはGoogleのサービスです。 2024年6月6日に日本語対応しました。 NotebookLMでは専用のチャットボットを簡単につくれます。 ◆アップロードできるコンテンツ チャットボットの回答ソースとなるコンテンツをアップロードできます。 GoogleドライブからGoogle documentやGoo

                                                GoogleのNotebookLMで情報収集・勉強を効率化する - Qiita
                                              • 中国AIが加速。Soraに匹敵する中国の動画生成AI「KLING」、中国アリババの最新オープンLLM「Qwen 2」登場など生成AI関連技術5つを紹介(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第50回目は、生成AI最新技術の概要5つを紹介します。 生成AI論文ピックアップ Soraに匹敵する動画生成AI「KLING」登場。中国のショート動画アプリ開発チーム「快手」が手がける アリババグルーブが開発するオープンソースな大規模言語モデルの新バージョン「Qwen 2」登場 ラベルなし静止画の学習だけ、ビデオ内の動く物体を検出・追跡できるモデル「MASA」 相手が話している適切なタイミングで同時翻訳するAIモデル「StreamSpeech」 OpenAIが大規模言語モデルの中身を理解するモデルを発表。GPT-4の中身は1600万の特徴を持つ Soraに匹敵する動画

                                                  中国AIが加速。Soraに匹敵する中国の動画生成AI「KLING」、中国アリババの最新オープンLLM「Qwen 2」登場など生成AI関連技術5つを紹介(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                • リアルな使い方を共有し、“まね”から始めるのがいい―日本マイクロソフトが社内のCopilot活用事例などを紹介

                                                    リアルな使い方を共有し、“まね”から始めるのがいい―日本マイクロソフトが社内のCopilot活用事例などを紹介 
                                                  • IDM VTON - a Hugging Face Space by kadirnar

                                                    High-fidelity Virtual Try-on

                                                      IDM VTON - a Hugging Face Space by kadirnar
                                                    • 生成AI活用はRAG前提の時代へ、約5割が取り組み中~302社402人へ生成AIの利用実態調査を実施、 全社での導入は前回から20ポイント増加し半数を上回る結果に~ - 株式会社エクサウィザーズ

                                                      生成AI活用はRAG前提の時代へ、約5割が取り組み中 ~302社402人へ生成AIの利用実態調査を実施、 全社での導入は前回から20ポイント増加し半数を上回る結果に~ 株式会社エクサウィザーズのグループ会社である株式会社Exa Enterprise AI(東京都港区、代表取締役:大植 択真、以下Exa Enterprise AI)は、2024年5月27日、29日に開催した生成AIセミナーにおいて、「生成AIの利用実態調査」を実施し、302社402人から回答を得ました。2023年4月から継続的に実施しており、同年12月に実施した3回目に続き、今回で4回目の実施となります。本調査では、社内データ連携(RAG*)に約5割が取り組み中と回答し、生成AIにおいてRAGを活用する時代へと移行したことがうかがえました。 *RAG(Retrieval Augmented Generation、ラグ)とは、

                                                        生成AI活用はRAG前提の時代へ、約5割が取り組み中~302社402人へ生成AIの利用実態調査を実施、 全社での導入は前回から20ポイント増加し半数を上回る結果に~ - 株式会社エクサウィザーズ
                                                      • Ramp and the AI Opportunity

                                                        Welcome to the 93 newly Not Boring people who have joined us since Thursday! If you haven’t subscribed, join 226,688 smart, curious folks by subscribing here: Subscribe now Hi friends 👋, Happy Tuesday and welcome back to our fourth Not Boring Deep Dive on Ramp. Ramp is one of the fastest-growing, best-run startups in the world. It’s also just one of my favorites. I met Ramp CEO Eric Glyman the fi

                                                          Ramp and the AI Opportunity
                                                        • Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models

                                                          Large Language Models (LLMs) are often described as being instances of foundation models - that is, models that transfer strongly across various tasks and conditions in few-show or zero-shot manner, while exhibiting scaling laws that predict function improvement when increasing the pre-training scale. These claims of excelling in different functions and tasks rely on measurements taken across vari

                                                          1