芥川賞・九段理江さん 受賞作はチャットGPT駆使「5%くらい文章そのまま」「うまく利用しながら」
2023年の流行語大賞にも選ばれた「生成AI」。 ChatGPTだけでなく、Google BardやClaude2など似たようなAIチャットボットも登場し、性能も日に日に上がっている感覚がありますね。 しかし、結局どれが一番賢いんだろう?と思いつつひとまずChatGPTを使っている方も多いはず。 そこで、今どのチャットAIが一番頭良いのか白黒つけてしまおう!ということで、ちょうど週末に行われた大学入試共通テスト2024を使って学力テストを行いました! 参加する学生は、 ①GPT-4くん ②Google Bardちゃん ③Claude2さん の三名です 果たして誰が学力王の座に輝くのか・・・? 選手入場①GPT-4くん一人目は、皆さんご存じChatGPTです。Open AI予備校に月額$20の課金して学力武装しています。 特徴としては、プロンプトの研究が進んでおり、画像やPDFファイルの読み
Clip source: Knowledge Graph vs. Vector Database for Grounding Your LLM グラフデータベースでLLMを構築した方が、LLMと比較して、性能、正確性、ハルシネーション防止、等の面で優れている、という記事です。実際ベンチマークをしてくれてる実例を探してみたいと思います。 Knowledge Graph vs. Vector Database for Grounding Your LLMMegan Tomlin, Director of Product Marketing, Neo4j Jul 13 4 mins read 企業は、ミッションクリティカルなアプリケーションに大規模な言語モデル(LLM)を組み込むことを望んでいます。しかし、LLMの予測不可能な性質は、幻覚(不正確な推論や明らかなエラー)を引き起こす可能性があり、
Clip source: Vector Databases (are All The Rage) | by Christoph Bussler | Google Cloud - Community | Aug, 2023 | Medium (映像はDalle-Eで作成) この記事は、昨今AIの浸透で広く知られるようになったベクトルデータベースの動向について調査をしたらすごい量の情報が出てきた、という内容。 ベクトルデータベース、と称してる技術は下記のリストの通り、大量に発生しているのが現状。突然急にこんな量が現れたわけではなく、その背景には、AI技術、特に自然語処理を行うために数値情報をベクトル的に管理する技術が必要になり、それを機能としてサポートしている、というデータベースベンダーの発表が多く現れた、という話。 データをメモリ上に管理する部分(ストレージエンジン)のレベルも含めてベクトル
1. docker上にredisgraph/redisinsightを構築 まず最初にdocker上にredisgraph/redisinsightを構築します。 下記の内容で docker-compose.yml を作成してください。 docker-compose.yml version: '3' services: redis: image: "redislabs/redisgraph:latest" ports: - "6379:6379" volumes: - "./rdb:/data:rw" insight: image: "redislabs/redisinsight:latest" depends_on: - redis volumes: - "./db:/db:rw" ports: - "8001:8001"
【速報&朗報】GPT Storeが遂に公開 待ちに待ったGPT Storeが遂に公開されました!🔥 公式発表によると、GPT公開からのたった2ヶ月で300万以上のGPTsが作成されているとのこと。 注目ポイント👀 ・毎週Open AIからの注目GPTsが特集される… pic.twitter.com/94WCTnwDiJ — 木内翔大@SHIFT AI代表「日本をAI先進国に」𝕏 (@shota7180) January 10, 2024 ChatGPTには「GPTs」という機能があり、ユーザーがChatGPTを自由にカスタムできます。さらにGPT StoreではGPTsが公開され、将来的には収益化も可能になる予定です。 AIを使って稼げる時代が、目の前まで来ていますね。今回は、そんなGPT Storeの中で最も人気のあるGPTsトップ10をご紹介します。 ビジネスや情報整理など、様々
東京工業大学(東工大)と産業技術総合研究所(産総研)の両者は12月19日、現在公開されている中で、日本語に強い生成AIの基盤である「大規模言語モデル」(LLM)としては最大規模となる「Swallow」を、米・MetaのLLM「Llama 2」の日本語能力を拡張することで構築し、Webサイト「TokyoTech-LLM」にて一般公開したこと、またオープンで商用利用も可能なことを共同で発表した。 同成果は、東工大 情報理工学院 情報工学系の岡崎直観教授、同・横田理央教授、産総研の共同研究チームによるもの。今回、東工大は主にデータの語彙拡張によるモデル学習・推論効率の改善に取り組み、産総研はモデル構築に必須である大規模計算資源としてAI橋渡しクラウド(ABCI)を提供すると同時に、主に継続学習によるモデルの日本語能力の改善を担当したとしている。 産総研のAI橋渡しクラウド「ABCI」(出所:東工
~ChatGPTとRAGの組み合わせで変わる業務効率化~ ※1/23に本まとめコラム後のRAGコラムを追加 昨年、AITCではChatGPTの業務活用コンサルティングを様々実施してきました。その中で、RAG(Retrieval-Augmented Generation:「検索強化型生成」)の仕組みを利用したコンサルティングを多く実施してきましたので、これらプロジェクトや、RAGに関するコラムを、2023年中に多く公開することができました。 本コラムはそれらのまとめコラムとなります。 その前に、そもそもRAGとは RAG(Retrieval-Augmented Generation)は、テキスト生成タスクにおいて情報検索を取り入れた手法です。この仕組みは、主に二つの部分から成り立っています。 1.情報検索(Retrieval)部分: まず、与えられた質問やプロンプトに対して関連する情報を文書
Accenture の「Technology Vision 2024」とその前身 Image Credit: Accenture Accenture は8日、CES 2024で「Technology Vision 2024」を公開したが、その中で AI が大きな役割を果たしていることは驚くことではない。 このビジョンは、人類とテクノロジーの関係が変曲点を迎える変革的な未来を予測している。テーマは「ヒューマン・バイ・デザイン:AI は人間の可能性をどのように引き出すのか」だ。このビジョンは、テクノロジーが人類に悪影響を及ぼすというディストピア的な描写とは一線を画す、楽観的なものである。Accenture は、今週ラスベガスで開催される「CES 2024」でこの報告書を発表した。 千年後の人間のディストピア写真を見たことがあるだろうか?猫背、浅黒い肌、大きく繊細な目——物理的な世界から切り離さ
リチウムイオン電池は、現代社会でスマートフォンや電気自動車などに広く使用される一方で、破裂や火災につながる危険性が指摘されています。2024年1月9日にMicrosoftとパシフィック・ノースウエスト国立研究所(PNNL)は共同で、既存のリチウムイオン電池よりも破裂しにくい可能性のある新たな固体電解質を用いたバッテリー材料を発見したことを発表しました。今回の発見には、Microsoftの量子コンピューティングサービス「Azure Quantum Elements」が用いられました。 Discoveries in weeks, not years: How AI and high-performance computing are speeding up scientific discovery - Source https://news.microsoft.com/source/featu
ネットのアングラから生まれた「イーアック」 前回記事〈「AGI」は、人類を凌駕して「生存リスク」になりえるか…「OpenAI騒動」の背景にあった世界的な懸念〉で扱ったOpenAIのお家騒動では、AI規制派とAI推進派の対立がその理由として報じられ、最終的には推進派の声が上回った形で決着した。だがOpenAIの社外に目をやれば権勢を伸ばしているのは、むしろAI規制派である効果的利他主義の支持者たちではないか。それが前回の趣旨だった。 対して今回は、推進派として報じられた、シリコンバレーのAI開発現場から湧き上がった通称「e/acc(イーアック)」、「効果的加速主義」と呼ばれる動きについて触れてみたい。 AI規制派の効果的利他主義は、英語ではEffective Altruismと表記され「EA」と略されることが多い。対してAI推進派の効果的加速主義はeffective acceleration
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。2024年初っ端の第27回目は、「礼儀は不要」「モデルに質問させる」「良い解答には報酬」など、大規模言語モデルの返答が向上する「プロンプト26の原則」をはじめとする5つの論文をお届けします。 生成AI論文ピックアップ複数の自律AIエージェントが過去の経験を共有して未知のタスクを処理するモデル「Experiential Co-Learning」 画像から動く3Dシーンを生成する新モデル「DreamGaussian4D」 大規模言語モデルの返答が向上する「プロンプト26の原則」が公開。「礼儀は不要」「モデルに質問させる」「良い解答には報酬」など 220以上の生成タスクが実
2023年も、あと1日になりました。振り返れば今年は、生成系AIの出現による激動とともに始まった年になりましたね。 「AIを使うヒト」「使われるヒト」の二分化が始まった Chat-GPTがリリースされて1年が経ちました。 「Chat-GPT、使っていますか?」と質問したら、「よく使っていますよ」と答えるのは10人に1人ぐらい。大概の方の反応は、「使ったことは何回かあるけど、そういえば最近は使わなくなったなぁ」というものです。 「AIに使われるヒト」の振り分けが始まっている 昔、ヒトはこの先、AIを使うヒトと、AIに使われるヒトに二分化されるという記事を書きました。使っていないと、確実に後者のほうに行ってしまう。もうそれが始まっているな、と最近痛感します。 無料版でも、まずテンプレートを使ってみる Chat-GPTを使わなくなった理由に「使ってみたけど、いまいちだった」という意見が多くありま
はじめに こんにちは、技術広報のnobu_msです。 ラクスでは2023年6月からGitHub Copilotを全開発組織に導入し、希望者は申請により全員利用可能となっています。GitHub Copilot導入から5カ月が経過し、利用状況や導入効果のアンケート調査を行いました。 本記事では、調査結果を踏まえて下記の内容をご紹介します。 全社導入前の課題とその対応 導入後の利用状況・効果測定 今後の活用に向けた課題と取り組み より詳細な目次はこちらをご覧ください。 はじめに GitHub Copilot導入の目的 全社導入前の課題とその対応 ① セキュリティの担保 当社の情報資産が学習に利用される可能性 他社のコードがサジェストされて著作権を侵害するのではないか? ② 費用対効果 導入後の利用状況・効果測定 コーディング時間短縮の効果 業務品質向上効果 学習・調査効率化効果 エンジニアの業務
こんにちは。XI 本部 AI トランスフォーメンションセンター所属の後藤です。 本記事は「 電通国際情報サービス Advent Calendar 2023 」の12月20日(水)の回の記事になります。 本記事では、つい先日利用が可能となったAzureの「GPT-4 Turbo with Vision」の紹介と使い方の解説をします。 使ってみた所感として、今回のAzure版GPT-4 Turbo with Visionは単なるOpenAIの機能の追随に留まらず、Azure固有の追加機能である「Vision enhancement」が印象的でした。特に、画像や動画の扱いにおいて、OpenAIのモデルよりも応用範囲が大きく広がっていることが感じられました。 OpenAIのGPT-4Vに関してはTechBlogの以下の記事でも紹介されていますので、ぜひご参照ください。 参考:https://tec
損害保険ジャパン株式会社 DX推進部の眞方です。この記事では、RAG(Retrieval Augmented Generative)の構築時に、ドキュメント検索精度の向上を目指して検索モデルの改善を行った際の手法、および結果について解説させていただきます。 概要を知りたい、という方は以前書いた前回の記事を読んでください。 はじめに 今回はRAGにおける検索モデルの改善を目的として、独自のデータを使用してfine-tuneを行いました。 RAGにおける検索(赤枠)の部分を改善する取り組みを行いました。 検索モデル 学習のためのライブラリとしては、sentence transformersを使用しました。また、モデルは日本語BERTを使用しています。 データ 今回RAGの対象となるドキュメントは、大きく次の2つが存在しています。 規定集 保険商品の説明等が書かれているドキュメントです(詳細は前
本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 ブレインパッドは、LLM/Generative AIに関する研究プロジェクトを立ち上げ、この「Platinum Data Blog」を通じてLLM/Generative AIに関するさまざまな情報を発信をしています。今回は、プロンプトエンジニアリングをテーマに、1カ月ほど前に発表されたレビュー論文と関連論文を紹介します。 目次 今回のテーマ なぜプロンプトエンジニアリングが必要か? プロンプトエンジニアリング:基礎編 抑えておきたい考え方 明確に、正確に ハルシネーションスノーボール (Hallucination snowball) 1.1 ユーザーの要求を明確化するタイプ 1.2 LLMの知識を引き出すタイプ 2.1 直列型:推論ミスを減らすタイプ 2.2 並列型:出力の堅牢さを高めるタ
こんにちは、AI製品開発グループの太田です。 この記事では巨大言語モデルに基づくマルチエージェント技術についてご紹介します。 近年、人工知能(AI)の進化は目覚ましいものであり、その中でも巨大言語モデル(Large Language Models、LLM)は注目を浴びています。 その中でもChatGPTは、その優れた自然言語処理能力により、様々な応用分野で高い評価を受けています。 本記事では、ChatGPTを基にした新たな応用技術である「LLMマルチエージェント」に焦点を当て、その可能性や機能についてご紹介いたします。 LLMエージェントとは? まず初めに、「LLMエージェント」について簡単に説明します。 LLMエージェントは、巨大言語モデルをベースに構築されたAIエージェントです。 このエージェントは、自然言語でのコミュニケーションを通じてユーザーと対話し、自ら自身がすべきタスクを考える
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く