ChatGPTを用いて学習するのは非常に効果が高いが、生成AIには時々間違った答えを出力する「ハルシネーション」という問題がある。これにどう対応すべきか。『ChatGPT「超」勉強法』を上梓した野口悠紀雄さんは「大規模言語モデル(LLM)がどのように言葉や概念を理解し、どのように出力を作っているかに関する理解が必要だ」という――。(第3回/全4回) ※本稿は、野口悠紀雄『ChatGPT「超」勉強法』(プレジデント社)の一部を再編集したものです。 ChatGPTは誤った回答を出すことがある ChatGPTを用いて学習を進めるのは、非常に楽しく効率のよい方法だ。しかし、この実行にあたって、乗り越えなければならない大きな問題がある。 それは、ChatGPTなど生成AIが出力する結果が、正しいとは限らないことだ。時々間違った回答をする。これは「ハルシネーション」(幻覚)と呼ばれる現象であり、深刻な
東京に拠点を置くAI企業「Sakana AI」が、複数の生成AIモデルを進化的アルゴリズムを用いて組み合わせて新たなモデルを作り出す手法を開発しました。Sakana AIはすでに大規模言語モデルや画像生成モデルの作成に成功しており、各モデルは既存のモデルよりも高い性能を備えていることが確かめられています。 進化的アルゴリズムによる基盤モデルの構築 https://sakana.ai/evolutionary-model-merge-jp/ [2403.13187] Evolutionary Optimization of Model Merging Recipes https://arxiv.org/abs/2403.13187 ◆技術の概要 生成AIモデルをゼロから作成するには、高性能なGPUを大量に用意して膨大な計算処理を実行する必要があります。一方で、既存のモデル同士を組み合わせて新
3月4日の公開以来、「Claudeやばくない?」「GPT-4を越えた」と、界隈で話題の「Claude 3」は、OpenAIの元メンバーによって設立されたAIベンチャー「Anthropic」が開発する最新の大規模言語モデル(LLM)だ。今回はChatGPTのライバルClaude 3の有料版を2週間ほどヘビーに使ってみて感じたことを、良い点と悪い点どちらも書いていきたいと思う。 Claude 3とは? 既報の通り、Claude 3はAnthropicが開発する大規模言語モデルの名称だ。 パラメーターのサイズなどが異なる3つのモデルがラインアップされている。 「Claude 3 Opus」は最も知能が高く、複雑なタスクでも最高のパフォーマンスを発揮する強力なモデル。APIやデータベースを介した複雑なアクションの計画や実行、インタラクティブコーディングなどの高度な活用が想定されている。 「Clau
「弊社が権利を持っている過去の全楽曲のMP3データを置いておくので是非音楽生成AIに流し込むなり学習させるなりしてください」。事務所や著作権を管理しているNexTone、一緒に楽曲を制作したアレンジャーやエンジニアにも許可を得たという。 生成AIによる学習について、損得を二の次にして持論を展開した鬼龍院翔さん。「もし良ければ曲が出来たら興味があるので聴かせてくれたら嬉しいです」としている。 関連記事 金爆、配信者向け「歌抜きBGM集」発売 「ゴールデンボンバーの曲だとはバレづらくなっております」 ライブ配信者などに向け、「ゴールデンボンバー」の楽曲から歌やコーラスを抜いたBGM集の配信が始まった。 就活の自己アピールにも生成AIの影 “就活ハック”はどこまで許されるのか? 企業の新卒採用者に対する調査によれば、履歴書やエントリーシートだけでは学生の個性やスキルの程度が分かりにくいということ
プリキュアの商品イラストに生成AI? Xで指摘相次ぐ→公式が否定する事態に 「現代の魔女狩り」との声も 商品イラストに画像生成AIは使っていない──テレビアニメ「プリキュア」シリーズの公式Xアカウント(@precure_15th)は3月22日、そんなポストをX上に投稿した。同アカウントが告知したある商品に対して、一部ユーザーから「このイラストには生成AIを使っているのではないか」という声が上がっていたためだ。 プリキュア公式Xは14日、「ふたりはプリキュア Max Heart」の新商品を5月上旬に販売すると告知。テレビアニメなどで使われている絵柄よりも、シックなデザインのキャラクターが描かれた商品を披露した。 しかし、この投稿に対して一部のユーザーから「イラストに生成AIを使用しているのではないか」などと指摘する声が上がった。指摘したユーザーたちは「指の組み方に無理がある」「髪の毛束に違和
2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第38回目は、生成AI最新論文の概要5つを紹介します。 Appleが最大300億パラメータを持つマルチモーダル大規模言語モデル「MM1」を開発 OpenAIなどのクローズド大規模言語モデルの一部を許可なく取得する攻撃、Googleなどが開発 GPT-3.5の隠れ層のサイズを約4096と推定。非公開LLMの中身を抽出する手法 WebページのスクリーンショットからHTMLコードを生成するAIモデル「Sightseer」をHugging Faceが開発 実世界に強いマルチモーダル大規模言語モデル「DeepSeek-VL」 Appleが最大300億パラメータを持つマルチモーダ
イーロン・マスク氏が立ち上げたAI企業のxAIが、少し毒のある返答を好むチャットAI・Grokのモデルデータをオープンソース化しました。公開されたのは特定の用途向けに最適化される前の生データであるため、ユーザーが必要に応じてモデルを最適化することができます。 Open Release of Grok-1 https://x.ai/blog/grok-os Elon Musk to Open Source Grok Chatbot in Latest AI War Escalation - The New York Times https://www.nytimes.com/2024/03/17/technology/chatbot-xai-code-musk.html Musk's Grok AI goes open source | VentureBeat https://venture
日本の学校教育の機能不全を指摘する声は多い。新著『ChatGPT「超」勉強法』が話題の野口悠紀雄さんは「ChatGPTを利用することで、学校教育で不十分だった点を補完できる可能性がある」という――。(第2回/全4回) ※本稿は、野口悠紀雄『ChatGPT「超」勉強法』(プレジデント社)の一部を再編集したものです。 ChatGPTは学校教育を補完する 学校教育はいくつかの点で不十分な教育しかしていないと、拙著『超「超」勉強法』で指摘した。そして、これを補完するには、独学で勉強するしかないと述べた。 いま、ChatGPTという強力な手段が現れた。これを用いれば、学校教育で不十分だった点を補完できる。 学校などの教育機関や政府は、こうした変化をどのように捉え、対応していくかを、真剣に考える必要がある。 ChatGPTを用いた勉強は、独学をする場合にとりわけ便利だ。家庭教師に教えてもらうのと同じよ
イーロン・マスク氏が昨年7月に立ち上げたAI企業xAIは3月17日(日曜日)、同社のLLM「Grok-1」の基本モデルの重みとアーキテクチャをリリースすると発表した。GitHubで、Apache 2ライセンスで配布されている。 Grok-1は、同社が昨年11月に発表したチャットbot「Grok」のベースとなるLLM。マスク氏がオーナーである米Xの「Xプレミアムプラス」のユーザーは、Grokと会話できている。 xAIは「3140億パラメータのMixture-of-Experts(MoE)」モデルと説明しているが、トレーニングデータについては「特定のタスク用に微調整されていない大量のテキストデータ」としか開示していない。ちなみに、Grok-1と競合する米OpenAIの「GPT-3」のパラメータ数は約1750億で、「GPT-4」については公表されていない。 マスク氏は2月、OpenAIを“契約違
MM1は、画像とテキストのペア、画像とテキストの混合データ、テキストのみのデータの混合でトレーニングされている。Mixture-of-Experts(MoE)や教師あり微調整でパラメータを300億までスケールアップすることで、比較的コンパクトなサイズでも競合するMLLMに匹敵する結果をベンチマークで達成したとしている。 視覚タスクでは、米OpenAIの「GPT-4V」や米Googleの「Gemini」に匹敵している。 MM1のアーキテクチャなどは公開されていない。Appleの研究者らは論文の結論を「ここで得られた知見が、コミュニティが特定の単一モデルアーキテクチャやデータ戦略を超えて、強力なモデルを構築するのに役立つことを願っている」と結んだ。 Appleの研究者らは、昨年12月ごろから複数のLLM関連の論文を発表してきた。 Appleのティム・クックCEOは2月の業績発表で、年内にAI分
生成人工知能(AI)によって作成・加工されたとみられる若い女性の扇情的な動画が、交流サイト(SNS)上などで拡散されている。一見しただけでは生身に見えるほど精緻で、再生回数が数百万回に達するものも。より性的に過激な動画へ誘導するものもあり、専門家は「アクセスを稼いで収益をあげる仕組みが確立されていることが背景にある」と指摘する。 「ミス東大」 モデルのような容姿の若い女性が、画面を向きながら公園や屋外を1人で歩く数分の動画。SNSのインスタグラムや動画投稿サイトのユーチューブなどに昨年から登場した、あるアカウントから投稿されたものだ。 「ノーブラ散歩」などの刺激的なタイトルがつけられ、プロフィル欄には東京大学の理系学生をうたい「ミス東大」を目指すなどと記載。他にも、服を着た状態で下着を脱ぐ様子を見せたりする動画が十数本投稿され、登録者は瞬く間に数万人に達した。 ただ、東京大広報課はこの人物
無償版「Copilot」でもフルタイムでGPT-4 Turboが利用可能に/「Copilot for Security」が4月1日から一般提供開始:週末の「気になるニュース」一気読み!(1/3 ページ)
Akuma.ai http://akuma.ai 2024年2月、日本発のクラウド型画像生成サービスAkuma.aiが、リアルタイム画像生成機能「AIキャンバス」を搭載したことが話題になりました。3月1日には生成枚数が延べ1200万枚に達したと発表。リアルタイム画像生成技術「LCM」を組み入れたサービスですが、高度なPC環境が不要で、タブレットなどからでも簡単に使えるため、国内外の幅広い層にウケたという経緯です。 🎉生成画像1200万枚突破🎉 リアルタイム「AIキャンバス」生成枚数が1200万枚を突破しました! たくさんご利用いただきありがとうございます。 今後とも #AkumaAI の応援よろしくお願いします🦑 プレスリリースはこちら:https://t.co/Yf3tjxjCsS — Akuma.ai (@AkumaAI_JP) March 1, 2024 日本発の画像生成AIサ
アップルの研究チームは3月14日、画像とテキストを理解し処理する能力を持つマルチモーダル大規模言語モデル「MM1」を発表した。今のところ論文のみの公開で、一般公開の時期は明かされていない。 一部ベンチマークではGPT-4Vをも凌ぐ性能を発揮 複数(30億、70億、300億)のパラメータサイズを備えるMM1は、10億以上の画像および30兆語以上のテキスト、GitHubのコード例などの多様なデータセットを用い、教師なし学習と教師あり学習を組み合わせる独自の方法で学習され、多様なタスクに対して高い精度を示すという。 各種ベンチマークの結果によると、30億および70億パラメーターのモデルはそれぞれのモデルサイズにおいて過去最高を記録。特にVQAv2(画像理解)、TextVQA(画像内のテキスト情報)、ScienceQA(科学知識)、MMBench(マルチモーダル)、MathVista(数学)などの
AIスタートアップの米Anthropicが、同社のチャットAI「Claude 3」向けに公式プロンプト集を公開している。3月11日までに64種類の使用例を公開中。専用のWebサイト「プロンプトライブラリ」で公開しており、英語と日本語表示に対応している。 例えば、入力した材料や好みに応じた料理レシピを提案する「料理クリエイター」などのプロンプトを公開している。プロンプトは「システム」と「ユーザー」の2つに分かれ、まず前者でAIに指示し、次に後者でユーザー個別の条件や要件を伝える仕組み。料理クリエイターの場合は以下のような具合だ(原文ママ)。 システム:あなたの仕事は、利用可能な材料や食事の好みに関するユーザーの入力に基づいて、パーソナライズされたレシピのアイデアを生成することです。この情報を使用して、ユーザーの食事のニーズに対応しながら、指定された材料を使用して作ることができるさまざまな創造
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く