サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
掃除・片付け
www.ai-shift.co.jp
はじめまして。AI Shiftでフロントエンドエンジニアをしている安井です。今回はCloud時代の課題を解決するLocal-Firstの概念について説明します。 私たちはCloudアプリケーションによって、リアルタイムでのCollaboration(共同作業)や複数デバイスからのデータアクセスを可能にしてきました。それはあらゆるデータをサーバに集中させることによって実現していますが、同時にデータのOwnership(所有権)を失っていることを意味します。 もし使用しているサービスが停止してしまったら、そのソフトウェアは機能しなくなり、それまでに作成していたデータは失われてしまいます。 またCloudアプリケーションによって私たちはどこからでもデータにアクセスできるようになりましたが、それは全てサーバを経由する必要があり、データを取得するにはサーバの許可が必要になります。 https://w
こんにちは。AIチームの東です。 本記事では、2024年3月6日(水)~8日(金)で行われた日本音響学会第151回(2024年春季)研究発表会の参加報告をさせていただきます。 イベント、セッション 今年の春季研究会はオフライン形式で開催されました。春季研究会としては2020年以来、4年振りのオフライン形式となりました。 2020年以前の春季研究会は例年関東地方で開催されることが通例らしく、今年は拓殖大学(東京都)での開催となりました。 正門の様子。会期中は雷雨・雪など天候不良が続いていましたが、2日目は晴天となりました。 今回の研究会では以下の件数の講演・発表等がありました。 一般講演(口頭発表) :235件(全10会場) 招待講演:40件 ポスターセッション:210件 選奨行事:1件 特別講演:1件 開催された全てのイベントやセッションに参加することはできませんでしたが、その中からいくつ
こんにちは AIチームの戸田です 固有表現抽出(NER)や品詞タグ付けなどのNLPタスクを行うためのPythonライブラリにspaCyがあります。シンプルなAPIで拡張性も高く、AI ShiftでもプロダクトのNLPロジック部分やデータ分析など多くの場面で利用しています。 そんな非常にお世話になっているspaCyですが、処理パイプラインにLLMを統合できるspacy-llmがリリースされました。今回の記事ではそのspacy-llmを使って極性分類やNERなどのNLPタスクをzero-shotで解いてみようと思います。 事前準備 以下のコマンドでインストールすることができます。 日本語を処理するためのspacy[ja]がインストールされていない場合はここで一緒にインストールしておいてください。 本記事ではLLMとしてGPT-3.5 turboを利用しますので、環境変数OPENAI_API_K
TOPNEWS【約7割の企業が電話での問い合わせ対応効率化に大きな課題感、AI電話自動応対サービス「ボイスボット」に関する法人向けアンケート調査を実施】 AI対話カンパニーとして対話のDXを推進する株式会社AI Shift(本社:東京都渋谷区、代表取締役社長:米山結人)は、カスタマーサポート部門を抱える全国の法人・企業を対象に、AI電話自動応対サービス「ボイスボット」に関する調査を実施しました。 ▼背景 近年、業務効率化やユーザーの利便性向上などを目的に、従来の電話やメールに加えてチャットボットやSNSなど問い合わせチャネルの多様化が進んでいます。 当社では、2020年4月より電話応対業務を自動化し、カスタマーサポートの業務効率化やユーザー体験の向上を実現するAI電話自動応対サービス「AI Messenger Voicebot」を提供しています。 また、これまで企業に必要な対話のDXの在り
はじめに アプリケーションの設計に関する会話の中で通信に対しての理解が浅く、うまくイメージがわかない場面が最近よくありました。また、障害が起きた際に通信経路がわからず原因の切り分けがうまくできないことが以前あり、もどかしいと思ったことがありました。 このような経験から、少なくともアプリ開発上知っておく必要がある通信経路については全て理解している状態になりたいと強く思うようになりました。 今回は通信経路への理解を深める一環として、Go言語を利用して自分でHTTPサーバーを実装し、TCPやHTTPに対する理解を深めてみました。 ※ この記事はGoならわかるシステムプログラミングの6章を参考にしています。低レイヤーについて深く知れるとても素晴らしい一冊でした。 ソケットとは TCPやHTTPの話に入る前にその前提について整理したいと思います。 まずはソケットについてです。 調べていくとソケットと
はじめに こんにちは、AIチームの杉山です。 LLMを組み込んだプロダクトは、その出力にハルシネーション(幻覚)が含まれる可能性を考慮し、後処理や処理フローを整えて正常系として動作することが必要です。ハルシネーションを検知する方法は様々提案されていますが[1][2][3]、今回の記事ではOpenAI社のChatGPTが出力するlogprobを用いてトークン単位での出力がどれくらい尤もらしいかを可視化したいと思います。 ChatGPT Log Probability ChatGPTのAPIでは、リクエストにlogprobs=Trueを指定することでトークン単位でのLog Probabilityを取得することができます。[4] Log Probabilityは、コンテキストが与えられたときに各トークンがシーケンスに出現する対数確率で、本記事では出力におけるそのトークンの尤もらしさとして扱います
こんにちは Development Team の滝波です。 今回はGoogleの公式のドキュメントのアーキテクチャ図には記載されていないBigtableの重要な仕様や要素、検索時の動作も含めて簡単にまとめてみました。 Bigtable の構成要素 Node (Tablet Server)ChubbyGFS (Colossus)SSTable (File)TabletRoot tabletMemtabletablet log データ BigTableのテーブルのデータは、内部では複数の Tablet に分割されているので、例えば、User のデータを保持する User Table があれば、そのデータは Tablet1、Tablet2、Tablet3 と複数の Tablet に分割されます。 ※ Tablet 内のデータはキーの辞書順にソートされている データの保存先 ただし実際のデータは
TOPTECH BLOGNext13 動的クエリ、 Server Component で実装するか?Client Component で実装するか? はじめに はじめまして、AI Shiftでフロントエンドエンジニアをしている栗崎です。 本記事では最近自分が行ったNext13 Server Component の技術検証の紹介をしていきたいと思います。 App Router が stable に 🎉 Next 13.4 で App Router が stable になりServer Componentの本番環境での使用が現実的になりました。しかし Server Component には様々な制限があり、既存のプロジェクトをApp router で動かすことができるのか、そして App Router 移行で恩恵が受けられるのかなど、気になる点は色々ありました。 そこでApp Router
こんにちは、AIチームの二宮です。 この記事はAI Shift Advent Calendar 2023の20日目の記事です。 本記事では、RAG(Retrieval Augmented Generation)を強化する技術について調査した結果をご紹介いたします。RAGの概要や基本的な実装については、以前の記事で詳しく説明していますので、そちらをご覧ください。 はじめに RAGは、大規模な文書から関連箇所を効率的に獲得し、それを基に回答を生成する手法です。特にカスタマーサポート分野では、自社情報に基づいて回答することが重要であるため、RAGの導入検討が積極的に行われております。最近では、RAGに関連する技術が多数提案されていますので、改めてどのような改善ができるのか調査してみました。 本記事では、詳細な実装までは触れず、関連するリンクを記載することに留めています。RAGの改善の方針を立てる
TOPTECH BLOG【AI Shift Advent Calendar 2023】図解!大規模言語モデルにおける 8bit 量子化入門 はじめに この記事はAI Shift Advent Calendar 2023の19日目の記事です。 こんにちは!AI チームで内定者アルバイトとして働いている長澤です。 昨今、言語モデルを含めたニューラルモデルの大規模化が止まりませんね。 「大きすぎてモデルがメモリに乗らん…」は最早あるあるなお悩みかと思います。 大規模化の流れに伴って、上記の問題を解決する1つの手段として「量子化」というワードをよく耳にするようになりました。 この量子化について、 「とりあえず低ビットにすれば、精度は落ちちゃうけどメモリ消費量抑えられるみたいな話だよね…?」 というボヤッとしたイメージの解像度をあげるベく、Hugging Face ライブラリでの実装を例に取り、量子
TOPTECH BLOG【AI Shift Advent Calendar 2023】GPT-4-turbo + 音声合成で快適なボイスボットを作る DALLE-3で生成 1. はじめに こんにちは、AI Shiftの友松です。 この記事はAI Shift Advent Calendar 2023の1日目の記事です。 AI Shiftでは2021年, 2022年とAdvent Calendarを継続的に行っており、今年で3回目の実施となります。AI ShiftのXアカウントにてTech Blog更新のポストを行いますのでぜひフォローをしてご確認いただけると幸いです。 本記事では、2023年11月6日に行われたOpenAI DevDayで発表されたGPT-4-turboとリアルタイム用途に最適化されたText-to-Speech(音声合成)モデル(以下TTSと呼ぶ)を組み合わせて簡易なボイス
DALLE-3で生成 はじめに 10月からAI Shiftにジョインした木村です。 サイバーエージェント本体のメディア事業部から異動してきました。中途入社して9年になるバックエンドエンジニアで、前のチームではエンジニアリーダーをしていました。 今回はそんな新規参画者の目から見たAI Shiftの開発組織について紹介したいと思います。 目次 事業について バックエンドの主な使用技術 開発チームの規模と雰囲気 開発スタイル AIに近いところで仕事をすることの重要性 事業について 現在既存のプロダクトとLLMの連携や新たにLLMを活用した企業内の課題解決をサポートするプロダクトを開発中です。 変化が早いので詳しくはプレスリリースをご覧ください。 バックエンドの主な使用技術 言語・ミドルウェア Golang Kubernetes (GKE) CloudSQL Firestore アーキテクチャ C
DALLE-3で生成 こんにちは、AIチームの戸田です。 LLMの隆盛に伴い、近年注目を集めているRAG(Retrieval-Augmented Generation)は問い合わせに対して、FAQなどの知識ベースの情報を参照しながらLLMに回答を生成させる質問応答のフレームワークの一種です。 RAGは関連情報を検索するRetrieverと、それに基づいて回答を生成するGeneratorの2つのモジュールで構成されます。ChatGPTが注目を集めている現在、Generatorに関心が行きがちですが、私はRetrieverの方が全体の性能に大きな影響を与えると考えています。Retrieverが適切な情報を取得できなければ、たとえ最先端のGeneratorを備えていても、その能力は十分に発揮されないからです。 本記事では以前作成したFAQ評価データを使って、代表的なベクトルベースのRetriev
こんにちは、AIチームの戸田です。 以前同じタイトルでブログを公開しました。 LLMを利用したFAQ検索の評価データセットの作成 前回の取り組みではLLMを用いて、以下の2つの手法を用いて、評価用の想定質問(クエリ)の生成を試みました。 FAQのタイトルのパラフレーズを生成 FAQの回答内容から質問内容を抽出 どちらの手法も概ね評価データとして適切なクエリが生成されましたが、1の手法は生成のバリエーションに乏しく、2の手法ではFAQが回答している内容と関係のない文章から質問が生成されてしまう、という問題がありました。 今回はそのブラッシュアップとして、2の手法をベースに生成時のpromptの工夫について取り組んだので、その際の取り組み内容と知見を共有しようと思います。 今回の取り組みの背景やFAQ検索の評価データセットの形式については前回の記事をご参照ください。 生成promptの改善 前
こんにちは AIチームの戸田です FAQ(Frequently Asked Questions)は、ユーザーがよく持つ疑問や問題点に対する回答をまとめたもので、ウェブサイトやマニュアル、カスタマーサポートなど様々な場面で利用されています。FAQの効率的な検索手法は、ユーザーサポートの向上や情報提供の効率化に直結するため、長い間研究や開発の対象となってきました。 しかし、新しい技術や手法が次々と登場する中で、その性能を比較・評価するためのデータセットは少ないのが現状です。 そこで本記事では、LLM(Large Language Model)を利用したFAQ検索の性能を評価するための新しいデータセットの作成方法について紹介します。 評価データセットに必要な要素 FAQ検索の評価を行うためのデータセットを作成する際、以下の要素が必要となります。 タイトルFAQの主題やカテゴリを示す短い文章やフレ
こんにちは! AIチームの戸田です 本記事では私がKaggleのコンペティションに参加して得た、Transformerをベースとした事前学習モデルのfine-tuningのTipsを共有させていただきます。 以前も何件か同じテーマで記事を書かせていただきました。 Kaggleで学んだBERTをfine-tuningする際のTips①〜学習効率化編Kaggleで学んだBERTをfine-tuningする際のTips②〜精度改善編〜Kaggleで学んだBERTをfine-tuningする際のTips③〜過学習抑制編〜Kaggleで学んだBERTをfine-tuningする際のTips④〜Adversarial Training編〜Kaggleで学んだBERTをfine-tuningする際のTips⑤〜ラベルなしデータ活用編〜 今回は学習効率化について書かせていただきます。このテーマは以前書かせ
こんにちは!AIチームの東です。 本記事はAI Shift Advent Calendar 2022の16日目の記事です。 先日はOpenAIが公開した汎用的な音声認識モデルWhisperの紹介記事を書きましたが、本記事ではもう少し踏み込んで、具体的な活用例についていくつか紹介したいと思います。 Whisperの活用例 基本的な利用方法 先日のTech blogでも述べた通り、Whisperを用いた音声認識はGoogle Colab等の環境でこのように簡単に実行することができます。 !pip install git+https://github.com/openai/whisper.git import whisper model = whisper.load_model("base") result = model.transcribe("sample.wav") load_model(
こんにちは AIチームの戸田です 今回は以前参加したKaggleのコンペRiiid! Answer Correctness Prediction(以下Riiid)でも利用したBigQueryMLの紹介をさせていただきます。Riiidの振り返り記事はこちらになります。 BigQueryMLとは https://towardsdatascience.com/build-a-classification-model-in-bigquery-machine-learning-for-ecommerce-761f1df895b4 BigQueryMLはBigQueryの標準SQLを使って機械学習モデルを学習できる機能です。GCPでWebサービスを運用していると、ログをBigQueryに流すことが多いと思います。ログを学習したモデルを作るために、これまではローカルなどにデータを落として学習したりしてい
こんにちは AIチームの戸田です 今回は日本語LLMのOpenCALMの7BモデルをSFTからRLHFまで一通り学習してみたいと思います。一通り動かすことを目的としており、パラメータ調整やデータクレンジングなどのより良い学習を行うための工夫は本記事では行いません。 言語モデルの一連の学習については以前、記事で取り上げさせていただきましたのでそちらをご参照いただければと思います。 trlxを用いた文書生成モデルの学習①~ILQL編~trlxを用いた文書生成モデルの学習②~PPO編~ 以前は学習ライブラリにtrlxを使用しましたが、今回はSFT用のTrainerを提供してくれているtrlを使います。 データセット JGLUEのMARC-jaを使って、ポジティブな文章を生成するように学習させたいと思います。MARC-jaは多言語のAmazonレビューコーパス(MARC)の日本語部分に基づいて作ら
はじめに こんにちは、AIチームの杉山です。 今回の記事では、QA検索などを行う際の文類似度の計算に、文の埋め込みベクトルを用いてknnで計算した場合とSVMを用いた場合の結果を簡易的ですが定量的に比較してみたいと思います。 動機としては、LangChainのRetrieverの実装にkNNだけでなくSVMを用いた実装が採用されており、その説明の中で以下のようにSVMの方が良いことが多いとされていたことでどれくらい性能が異なるかを確認したいと思ったためです。[1][2] TLDR in my experience it ~always works better to use an SVM instead of kNN, if you can afford the slight computational hit 具体的には、クエリ自身だけを1クラス、検索対象のドキュメント集合全体を別の1ク
こんにちは! AIチームの戸田です。 今回はKaggleのInformation Retrievalタスクのコンペティション、Learning Equality - Curriculum Recommendationsの1st solutionでも使われていたsparse_dot_topnによるcos類似度計算の高速化を試してみたいと思います。 sparse_dot_topn 著者らのブログより QA検索のようなクエリに類似する文章を検索するようなタスクにおいて、近年はBERTなどの事前学習済みモデルから文章の特徴ベクトルを抽出して比較したり、Dense Passage Retrievalのような文書間の類似度を直接推定するモデルを利用する方が精度が良いと言われています。しかし実務では推論速度やGPUなどのマシンコストの点から、古典的なTF-IDFなどのスパースなベクトルの類似度を利用する
AI Shift、東北大学の乾・坂口・徳久研究室とカスタマーサポート領域におけるLLM活用を目指した共同研究を開始 〜サイバーエージェント独自の日本語LLM (大規模言語モデル) を活用〜 株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)の連結子会社である株式会社AI Shift(本社:東京都渋谷区、代表取締役社長:米山結人、以下AI Shift)は、東北大学の乾・坂口・徳久研究室とサイバーエージェント独自の日本語LLM(大規模言語モデル)を活用し、カスタマーサポート領域におけるLLM活用を目指した共同研究を開始します。 ■ 取り組み背景 当社では、カスタマーサポートのDXを支援するため、メールや問い合わせフォームを自動化するチャットボットや、電話応対業務を自動化するボイスボットを提供しており、既に累計400社様以上にご利用いただ
AIと人間の融合 『AIを民主化する』というミッションの通り、当社は全ての人や企業がAIの可能性を享受できる世の中を目指しております。AIはすべての産業を再定義する可能性を秘めており、これまで人間が行っていた仕事をすらも変えてしまうかもしれません。 AIと人間を対立構造と捉えるのではなく、人間が正しくAIを使うことによって、はじめて価値が出せると考えております。それが当社の考える『AIと人間の融合』です。 このようなコンセプトのもと、AIプロダクトの開発を通じ、企業のAI活用を推進してまいります。
TOPTECH BLOG論文紹介:Distinguish Sense from Nonsense: Out-of-Scope Detection for Virtual Assistants 論文紹介:Distinguish Sense from Nonsense: Out-of-Scope Detection for Virtual Assistants はじめに こんにちは、AIチームの杉山です。前回の私の記事ではチャットボットなどの自動応答システムにおけるOOD(out-of-domain)の問題と、関連する研究を紹介しました。今回の記事では、その中で触れたID-OOS(in-domain but out-of-scope)についての紹介と、関連する研究としてEMNLP2022のIndustry Truckに採択されたDistinguish Sense from Nonsense:O
表1. 介入割当方法3種類とそれらが用いる被推定量,介入の選択方法 OPは,アウトカムの平均を予測し,それが最大となる介入を選択します. CPは,介入効果を予測し,それが最大となる介入を選択します. APは,介入効果が最大となる選択自体を学習します. CPとAPの違いが少し分かりづらいかもしれませんが,クラス分類において,クラスに属する確率を予測する(これがCP)か属するクラス自体を予測するか(これがAP)の違いと考えると分かりやすいかもしれません. 3つの方法はいずれも理想的な条件(データが十分多く,機械学習モデルのパラメータ推定量が一致推定量)を満たせば漸近的に最適な割当を得ることができることが示されているそうです[1]. しかし,実問題においては,得られるデータ数は有限であるためこれら3つの方法に違いが生じます. その1つとして,「OP・CPは予測性能が介入割当の性能と必ずしも一致し
サーバーサイドエンジニアはこちら フロントエンドエンジニアはこちら カスタマーサクセスはこちら プロダクトセールスはこちら カジュアル面談をご希望の方はこちら TECH BLOG ブログ TOPNEWSタグ: Transformer #Transformer 【AI Shift Advent Calendar 2023】ベクトルベースのRetrieverの学習と評価 こんにちは、AIチームの戸田です 本記事はAI Shift Advent Cal… 2023.12.08 Research Advent Calendar 2023Deep LearningLLMTransformer自然言語処理(NLP) Kaggleで学んだBERTをfine-tuningする際のTips⑥〜LLMでも使える学習効率化編〜 こんにちは!AIチームの戸田です 本記事では私がKaggleのコンペティションに…
こんにちは。AIチームの東です。 2023年3月15日(水)から3月17日(金)にかけて開催された日本音響学会 第149回(2023年春季)研究発表会にて、AI Shiftと共同研究を行っている名古屋工業大学 李研究室から1件、ポスター発表がありました。 本記事では当日の発表で頂いた質疑応答を抜粋して掲載します。発表内容の概要については前回の記事をご覧ください。 発表報告 [2-3P-2] Continuous Integrate-and-Fire を用いた音声区間検出とターン終了検知のマルチタスク学習 著者:池口弘尚 (名工大),東佑樹 (AI Shift),上乃聖,李晃伸 (名工大) 議論 ■CIF、モデルの挙動、実験結果について: Q. 特徴量は何を使っているのか A. 64次元の対数ログメルスペクトログラムを使用している。 Q. 本手法はフレーム毎に何かを予測しているのか?また、α
こんにちは。AIチームの友松です。 2023年3月13日(月)〜3月17日(金)に沖縄コンベンションセンターで行われた言語処理学会第29回年次大会で、弊社からポスター発表で7件(うち東京都立大学 小町研究室との共同研究1件)の発表を行いました。 4年ぶりのオフライン(+オンラインのハイブリッド)開催となり、発表件数579件, 参加者数1761名と過去最大の学会となったようです。 弊社からの発表にも非常に多くの方にご覧いただき次の研究につながる有意義な議論をさせていただきました。本記事では弊社の発表で頂いた質疑応答を抜粋して掲載します。 発表論文や概要については前回の記事を御覧ください! 2. 各発表の概要と議論したいポイント 2.1 意味的類似度計算システムによるチャットボットFAQシステムの性能向上 議論 Q:文のembeddingの使用についても少し検討しているとのことですが、短いテキ
こんにちは AIチームの戸田です 前回に続き、最近話題のChatGPTの学習に使われているRLHF(Reinforcement Learning from Human Feedback)を行うことができる強化学習フレームワーク、trlxを使った文章生成を試してみたいと思います。 本記事ではいよいよ話題のChatGPTと同じ(と思われる※)PPOの学習を、前回と同様WRIMEのデータで試してみたいと思います。実験設定などは前回の記事をご参照ください。また、本記事はtrlxライブラリを一通り動かすことを目的とし、パラメータ調整やデータクレンジングなどのより良い生成を行うための工夫は行いません。 なお、trlxのバージョンはv0.5.0を使用しています。trlxの最新版ではいくつか仕様変更が行われているため、著者と同じ環境で実験したい方はv0.5.0でお試しください。 ※: 2023.02.20
次のページ
このページを最初にブックマークしてみませんか?
『株式会社AI Shift』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く