ECサイト上の商品名は、「送料無料」や「ポイント5倍」、「母の日」といった宣伝文句が付加され、本来の商品名が分かりづらくなっています。 これらの不要なキーワードは、自然言語モデルを作成する際の妨げとなり、精度を上がりづらくしている一つの要因となっています。 そこで、本記事では、これら不要なキーワードを効率的に除去する方法について、具体的な手法と事例を紹介します。 データクレンジングの例、LLMオープンモデルを活用したアプローチ、さらにはGoogle Cloud PlatformのVertex AIやGemini-proを用いた解決策について触れます。 3行まとめ ・商品名から頻出単語のリストを作成し、商品名から不要なキーワードを検索して除去する ・オープンモデルでプロンプトを実行し除去する ・Google Cloud Platform のVertex AI、Gemini-proで除去する
by hiroaki maeda Googleの人工知能(AI)研究所であるGoogle DeepMindが開発した囲碁AIの「AlphaGo」は、当時世界トップ棋士のイ・セドル九段を打ち負かすなど、目覚ましい成果を挙げました。そんな囲碁特化のAIの誕生により、人間の棋士のレベルも向上していることが報告されています。 After AI beat them, professional go players got better and more creative https://www.henrikkarlsson.xyz/p/go スウェーデンの作家であるヘンリック・カールソン氏によると、AIが登場する以前の1950年代から2010年代半ばまで、囲碁のプロ棋士の棋力は頭打ちで、上達の限界に達していたとのこと。以下のグラフは当時のプロ棋士が対局中に差す手の質を示したものです。 しかし、Alp
基盤モデルの開発をしている中で苦労することは? 南野充則氏(以下、南野):では、ここからパネルディスカッションに移っていきたいと思います。最初は、こちら側でお題を用意しています。大きなトピックとしては、基盤モデルの開発とコスト、基盤モデルにおけるアカデミアとビジネスの観点でどのような考え方をされているのかというところ。 あとは、日本語特化LLMの意義と展望といったところですね。大きなトピックとして揃えていますが、今「Slido」でのご質問もいただいていますので、適宜Slidoも拾いながらやっていければと思います。Slidoは、このQRコードからみなさんに質問していただければと思います。 さっそくですが、トピック1に移っていきたいと思います。「基盤モデルの開発をしている中で苦労されることは?」というところで、これはまず垣内さんからお願いしたいです。この基盤モデルを作っている中でどんな苦労があ
テキストベースのチャットボットや「AI ガールフレンド」を作成できる生成 AI プラットフォームが1,600万ドル以上の価値があると考える投資家はいるだろうか。MyShell の投資家はそう考えているようだ。同社は、Dragonfly、Delphi Ventures、Bankless Ventures、Maven11 Capital、Nascent、Nomad Capital、OKX Ventures から1,100万ドルのプレシリーズ A ラウンドを発表したばかりだ。昨年の560万ドルのプレシードに続くもので、これまでの調達総額は1,660万ドルに達した。 シンガポールと東京にクリエイターを抱える MyShell は昨年ステルス状態から登場した。AI キャラクターとユーザー生成型ボット作成プラットフォームや、2024年初頭に発表されたオープンソースの音声クローンモデル OpenVoice
Command-R+の衝撃! 100Bモデルで本当にこんなことできんの!?ダウンロードしてローカルで実行可能 Transformerの発明者らが起業したCohereAIがとんでもないモデルを出してきた。この業界では毎週のように「えーー!」ということが起きるのだが、その中でも年に1,2回起きる「えーーーっ」が起きたのでブログでも紹介しておきたい。 Command-R+(おそらくコマンダープラスと読むのが正しい)というモデルは、わずか100Bで、GPT-4,Claude-3並と言われるモデルだ。しかし、それを主張するだけのモデルなど腐るほどある。だが、実際に触ってみると期待外れということが多かった。 ところがCommand-R+は、その性能は桁違いである。というか、もはや僕という人間如きがちょっと触ったくらいでは「GPT-4よりいいね」とか「ここら辺甘いね」とか判断がつかなくなってきてる。しか
OpenAIは、使いやすい生成AIツールを一般向けに提供することで知られているが、開発者や企業が自社の特定用途向けにAIモデルを必要とする場合に向けても包括的な製品を提供もしている。OpenAIは米国時間4月4日、「Custom Models Program」の拡張とファインチューニングAPI向け6機能を発表した。 ファインチューニングは、特定の用途やニーズを満たすようAIモデルをカスタマイズするために時間を要するプロセス。ファインチューニングはAIモデルが意図されたゴールをよりよく達成するのを支援するだけでなく、コスト削減とレイテンシー低下も可能にする。 場合によっては、必要なカスタマイズの量がファインチューニングで提供できるものを超えることもある。例えば、組織が非常に大規模な独自のデータセットを持っている場合がこれに該当する。この問題に対処するため、OpenAIは2023年11月に「C
「ChatGPTはすぐに嘘をつくから調べものには使えない」という意見をよく聞くが、これには大きな誤解がある。 そもそもChatGPTの心臓部である大規模言語モデル(LLM)は、膨大な知識を元にテキストを「生成」する仕組みだ。 逆に言うと、知識として持っていないことは一切わからないので、知らないことについて説明を求められても能力的に不可能なのだ。 だから、知識にない質問をされると答えられないだけでなく、苦し紛れに幻覚(ハルシネーション)を起こしてしまう。これが「すぐに嘘をつく」と言われる理由だ。 結論を書いてしまうと「ChatGPTは検索ツールではない」のだ。むしろ「ChatGPTがいちばん苦手とすることが検索」なのだ。 今回はこの欠点を補い、AIを活用した新しい検索の形を実現するという触れ込みのサービス「Perplexity.ai」を紹介していく。 Perplexity.aiとは Perp
「ChatGPT」など広く使われているAIサービスは、通常であればセーフティがかけられていて、「人を殺す方法」「爆弾をつくる方法」といった倫理的に問題のある質問には答えないようになっています。ところが、あまりにも多い質問を一度にぶつけてしまうことによりセーフティが外れ、AIが問題のある回答を行ってしまう可能性があることがわかりました。 Many-shot jailbreaking \ Anthropic https://www.anthropic.com/research/many-shot-jailbreaking 大規模言語モデル(LLM)は、モデルの刷新と共にコンテキストウィンドウ(扱える情報量)も増加しており、記事作成時点では長編小説数冊分(100万トークン以上)を取り扱えるモデルも存在します。 大量の情報を扱えるというのはユーザーにとって利点になりますが、大量の情報を扱うことによ
FIXERは、エンタープライズ向け生成AIサービス「GaiXer」に、NTTが開発したLLM(大規模言語モデル)「tsuzumi」を搭載した新サービス「tsuzumi on GaiXer」を、NTTコミュニケーションズのソリューションサービスとして2024年4月より提供開始予定であることを明らかにした。 「tsuzumi」でより高い品質の日本語生成機会を提供 「tsuzumi」は、NTTの長年にわたる自然言語処理技術の研究成果を基に開発されたLLMであり、高い日本語の自然言語処理能力を持ちつつ、軽量かつ低消費電力で動作することが特徴。 これまでGaiXerは、Azure OpenAI ServiceによるGPT-3.5、GPT-4 TurboやAmazon BedrockによるLlama 2、Claude3等のLLMを提供してきたが、この度、国産の商用大規模LLMであるtsuzumiを搭載
NTTは3月25日、独自の大規模言語モデル(LLM)「tsuzumi」の商用提供を始めた。さまざまな業種・業界の企業に提供し、2027年度までに1000億円の売り上げ創出を目指す。同日に開催した記者発表会には、その名の由来である楽器“鼓”の奏者も駆け付け、祝言の演奏を披露した。 tsuzumiはNTTが独自開発したLLMで、まずは70億パラメータのモデルの商用提供を始める。日本語LLMの性能を図るベンチマーク「Rakuda」において、tsuzumiは「GPT-3.5」を上回る性能を持つという。他にも、企業・業界特化へのカスタマイズを低コストで行える点や、図表読解などが可能なマルチモーダル性を持つことも特徴だ。
このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 イスラエルのネゲヴ・ベン・グリオン大学に所属する研究者らが発表した論文「What Was Your Prompt? A Remote Keylogging Attack on AI Assistants」は、大規模言語モデル(LLM)を活用したAIチャットbotが生成するテキスト回答を復元するサイドチャネル攻撃を提案した研究報告である。攻撃者は、AIチャットbotが応答する際の通信データを傍受することで内容を復元して他人のやりとりを盗み出すことができる。 攻撃方法としては、まずユーザーとLLMの間の暗号化されたパケット通信を傍受するところか
マーケティングやコンサルティング業界が先行する生成AI活用だが、製造業でも大手企業による取り組みが本格化しつつある。42万人以上の従業員を持つドイツ・ボッシュは、生成AI活用で既存のAIプロジェクトの生産性を大幅に高める計画を明らかにし、いくつかの工場で実際にプロジェクトを始めている。生成AIを活用することで、通常半年から1年はかかるAI開発プロジェクトを数週間にまで短縮することを狙うという。具体的にどのように生成AIを活用しようとしているのか、ボッシュの取り組みを探ってみたい。 バークリー音大提携校で2年間ジャズ/音楽理論を学ぶ。その後、通訳・翻訳者を経て24歳で大学入学。学部では国際関係、修士では英大学院で経済・政治・哲学を専攻。国内コンサルティング会社、シンガポールの日系通信社を経てLivit参画。興味分野は、メディアテクノロジーの進化と社会変化。2014〜15年頃テックメディアの立
大規模言語モデル(LLM)の弱点であるハルシネーション(幻覚)への対策として、最も期待されているのはRAG(Retrieval-Augmented Generation、検索拡張生成)だ。RAGに強みを持つカナダのスタートアップ、Cohere(コーヒア)のNick Frosst(ニック・フロスト)共同創業者は、RAGの高度化に「Rerank(再順位付け)」という技術が欠かせないと指摘する。 RAGはLLMに対して、事前学習した知識だけでなく外部の知識情報も参照させてテキストを生成させる手法だ。RAGを活用すれば、企業の内部情報に基づいた回答をLLMに生成させることも可能であるため、LLMがデタラメな回答を出力するハルシネーションへの対策として有望視されている。 LLMと検索を組み合わせるのが「RAG」 RAGは「検索拡張生成」というネーミングが示すとおり、LLMに参照させる知識情報の選択に
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く