並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 97 件 / 97件

新着順 人気順

NLPの検索結果81 - 97 件 / 97件

  • FineWeb: decanting the web for the finest text data at scale - a Hugging Face Space by HuggingFaceFW

    Discover amazing ML apps made by the community

      FineWeb: decanting the web for the finest text data at scale - a Hugging Face Space by HuggingFaceFW
    • New models added to the Phi-3 family, available on Microsoft Azure | Microsoft Azure Blog

      Explore Azure Get to know Azure Discover secure, future-ready cloud solutions—on-premises, hybrid, multicloud, or at the edge Global infrastructure Learn about sustainable, trusted cloud infrastructure with more regions than any other provider Cloud economics Build your business case for the cloud with key financial and technical guidance from Azure Customer enablement Plan a clear path forward fo

        New models added to the Phi-3 family, available on Microsoft Azure | Microsoft Azure Blog
      • Chat VectorでLLaVAを日本語対応させる

        import torch from transformers import AutoTokenizer, AutoModelForCausalLM from llava.model.builder import load_pretrained_model if __name__ == "__main__": vlm_model_name = "liuhaotian/llava-v1.5-7b" vlm_tokenizer, vlm_model, image_processor, context_len = load_pretrained_model( model_path=vlm_model_name, model_base=None, model_name="llava-v1.5-7b", load_bf16=True, device_map="cpu", device="cpu" )

          Chat VectorでLLaVAを日本語対応させる
        • microsoft/Phi-3-vision-128k-instruct · Hugging Face

          Intended Uses Primary use cases The model is intended for broad commercial and research use in English. The model provides uses for general purpose AI systems and applications with visual and text input capabilities which require memory/compute constrained environments; latency bound scenarios; general image understanding; OCR; chart and table understanding. Our model is designed to accelerate res

            microsoft/Phi-3-vision-128k-instruct · Hugging Face
          • 生成AIをアプリケーション開発に活用する企業は、コストやハルシネーションの問題にどう取り組んでいるのか

            Amazon Web Services(AWS)は2023年4月に、大規模言語モデル(LLM)のフルマネージドサービス「Amazon Bedrock」のプレビュー版を公開した。プレビュー版の公開時点で導入を決め、1年にわたって同サービスを活用してきた企業の担当者らが、アプリケーション開発に生成AI(人工知能)を利用する際のポイントを語った。 語ったのは、カナダのトロントを拠点とする顧客調査プラットフォームプロバイダーAlidaでチーフアーキテクトを務めるシャーウィン・チュー氏と、米国ニューヨーク州メルビルのContact center as a ServiceプロバイダーVerint Systemsでチーフサイエンティストを務めるイアン・ビーバー氏だ。 AlidaはなぜAmazon Bedrockを選んだのか 関連記事 最適な学習方法は? 安全にデータを使うには? AWSが解説する「生成A

              生成AIをアプリケーション開発に活用する企業は、コストやハルシネーションの問題にどう取り組んでいるのか
            • LLM でブラウザを操作する WEB エージェントと周辺技術のざっくり紹介 - Algomatic Tech Blog

              こんにちは。Algomatic NEO(x) カンパニー機械学習エンジニアの宮脇(@catshun_)です。 本記事ではブラウザやモバイル画面を操作する LLM エージェントとその周辺技術について超ざっくりと紹介します。 社内に向けたキャッチアップ資料として作成しており、加筆修正する可能性がありますが、本記事を読んだ方の議論のネタ程度になってくれれば幸いです。 以前 AI ソフトウェアエンジニアについて紹介しているので、こちらもご覧いただけたら幸いです。 おことわり 本記事では対象とする研究棟の 詳細な解説は含みません。詳細は元の論文を参照ください。 不十分また不適切な言及内容がありましたらご指摘いただけますと幸いです。 プロダクト等の利用時は 必ずライセンスや利用規約を参照して下さい。 本記事の目次 Google I/O '24 での Gemini Nano × Android の発表

                LLM でブラウザを操作する WEB エージェントと周辺技術のざっくり紹介 - Algomatic Tech Blog
              • Why Mesop? - Mesop

                Home Getting Started Guides Components API FAQ Demo Gallery 🔗 Blog Contributing Why Mesop? Mesop is a new UI framework that enables Python developers to quickly build delightful web apps in a scalable way. Many Python UI frameworks are easy to get started with, but customizing beyond the defaults often requires diving into JavaScript, CSS, and HTML — a steep learning curve for many developers. Me

                • ChainlitとLangGraphを活用してAgentによる画像認識を実現する方法

                  はじめに 5月13日にGPT-4oがOpenAIから発表されました。 この発表以降、Xでも多くの方がGPT-4oを試した感想を書いていました。 その中で画像認識の精度が上がって、かなり使える機能になってきているとの話があり、気になったのでまずはAPIから使えるようにしてみました。 OpenAIのモデルがVisionに対応したのはだいぶ前になりますが、 値段の割にあんまり精度が良くなさそうだったので、お恥ずかしながら今まで試したことがありませんでした。 なので今回は、 VisionのAPIドキュメントを一通り読む Chainlitのマルチモーダル機能の挙動を確認する 以前作成したChainlitとLangGraphのAgentアプリで画像認識をできるようにする という手順でやっていきたいと思います。 Vision APIのドキュメント確認 まずはVisionの使い方やコストについて、Open

                    ChainlitとLangGraphを活用してAgentによる画像認識を実現する方法
                  • GoogleがGemini 1.5 Proのアップデートを実施、コンテキストウィンドウを従来の100万トークンから200万トークンに拡張

                    Googleが、現地時間2024年5月14日に開催された開発者向けイベント「Google I/O」において、2024年2月に発表された高性能AIモデル「Gemini 1.5 Pro」のアップデートについて発表しました。 Gemini 1.5 Pro updates, 1.5 Flash debut and 2 new Gemma models https://blog.google/technology/developers/gemini-gemma-developer-updates-may-2024/ Google Gemini update: Access to 1.5 Pro and new features https://blog.google/products/gemini/google-gemini-update-may-2024/ 2024年2月15日に発表されたGemi

                      GoogleがGemini 1.5 Proのアップデートを実施、コンテキストウィンドウを従来の100万トークンから200万トークンに拡張
                    • AnswerCarefully Dataset – RIKEN-AIP, LIAT

                      新着情報 AnswerCarefully Dataset バージョン1.0を公開 (2024/4/30) 概要 日本語LLM 出力の安全性・適切性に特化したインストラクション・データAnswerCarefully(AC)データセットVersion 1 を公開します。このデータセットは、英語の要注意回答を集めたDo-Not-Answer データセット の包括的なカテゴリ分類に基づき、人手で質問・回答ともに日本語サンプルを集めたオリジナルのデータセットです。 データセットの特徴 5つのリスクタイプ(大分類)、12の有害カテゴリ(中分類)、61のサブカテゴリ(小分類)をカバーしています。Version 1は各サブカテゴリにつき10から20のサンプルを含む計945件からなっています。 このうち各サブカテゴリから3件ずつ、計183件をテストデータ、残り762件をを開発データとして2つのファイルに分け

                      • 世界的エンジニア中島聡氏が連載「人工知能入門」を開始。第1回「コンピュータは似ている言葉をどう判断しているか」を全文掲載 - まぐまぐニュース!

                        まさに「日進月歩」と呼ぶにふさわしい進化を遂げる人工知能。そんな人工知能について、メルマガ『週刊 Life is beautiful』にこれまでもたびたび詳しい解説を掲載してきた世界的エンジニアの中島聡さんが、その最低限の用語・コンセプトを説明する新連載「人工知能入門」を、5月14日配信号よりスタートさせました。今回は「Text Embedding」を徹底解説した連載第1回の全文を掲載。中島さん曰く「魔法のような技術」を、初心者にも分かりやすくレクチャーしています。 ※本記事のタイトルはMAG2NEWS編集部によるものです/原題:人工知能入門:Text Embedding、「似ている言葉」の話 プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシントン大学)。NTT通信研究所/マイクロソフト日本法人/マイクロソフト本社勤

                          世界的エンジニア中島聡氏が連載「人工知能入門」を開始。第1回「コンピュータは似ている言葉をどう判断しているか」を全文掲載 - まぐまぐニュース!
                        • Your Transformer is Secretly Linear

                          This paper reveals a novel linear characteristic exclusive to transformer decoders, including models such as GPT, LLaMA, OPT, BLOOM and others. We analyze embedding transformations between sequential layers, uncovering a near-perfect linear relationship (Procrustes similarity score of 0.99). However, linearity decreases when the residual component is removed due to a consistently low output norm o

                          • 米Google、オープンな視覚言語モデル「PaliGemma」公開 「Gemma 2」の登場も予告

                            米Googleは5月14日、視覚言語モデル(VLM)「PaliGemma」を公開した。VLMとは視覚的な入力に言語を対応させる言語モデルのことで、画像や動画を入力すると自然言語を出力できる。同社はこれを「オープンなVLM」と位置付けており、Hugging FaceやGitHubなど複数のプラットフォームで公開している。

                              米Google、オープンな視覚言語モデル「PaliGemma」公開 「Gemma 2」の登場も予告
                            • IBM、生成AIモデル「Granite」ファミリーをオープンソース化 116のプログラミング言語に対応するモデルを公開

                              IBMは2024年5月7日(米国時間)、同社が開発した生成AI(人工知能)モデル「Granite」ファミリーにおいてコーディングタスクに特化した「Granite Codeモデル」と、指示学習(インストラクションチューニング)済みの「Granite Code Instructモデル」をオープンソース化したと発表した。これらのモデルはApache License 2.0でリリースされている。 IBMは、これらのモデルをオープンソースで公開した背景を、次のように述べている。 「生成AIの人気が急上昇する一方、企業での採用は遅れている。その理由の一つは、コストが高いことだ。多くのモデルは数百億のパラメーターを持っており、汎用(はんよう)的なチャットbotを構築するには有用だが、推論と実行に多くの計算リソースが必要となる。コスト以外にも、大規模言語モデル(LLM)のライセンスが不明確であることや、モ

                                IBM、生成AIモデル「Granite」ファミリーをオープンソース化 116のプログラミング言語に対応するモデルを公開
                              • Oracle Database 23aiの新機能「AI Vector Search」で、テキストをベクトルデータに変換して検索してみた / 開発者向けブログ・イベント | GMO Developers

                                Oracle Database 23aiの新機能「AI Vector Search」で、テキストをベクトルデータに変換して検索してみた 5/2に発表およびリリースされた、Oracle Databaseの最新バージョン「23c」改め「23ai」 自らaiと呼称する通り、AIにフォーカスを当てた新機能であるベクトル検索機能「AI Vector Search」が導入されています その新機能である「AI Vector Search」を実際に導入し、ベクトル変換およびベクトル検索を試してみましたのでご紹介します

                                • OpenAIのGPT-4のアーキテクチャへの仮説:Mixture Of Experts(MoE)による拡張性の高いLLM|鈴木いっぺい (Ippei Suzuki)

                                  OpenAI社のGPT-4は、従来のGPT-3, GPT-2.5と比較して巨大な言語モデル持ち、パラメタ数でいうと1,750億〜2,800億個、とされています。これはデータ量で言うと45GBに及びます(従来のGPT-3はその1/3近くの17GB)。データ量が多くなった分、精度や正確性は高くなったと評価されてますが、ハルシネーションによる間違った回答の比率が少なくなったかと言うと そうでも無い、と言う意見も多いし、人間の思考の様な推論(reasoning)がまだ十分にできない、と言うことも根本的な課題です。 AIシステムのパラメタが巨大化する最大の課題は、それをトレーニングするためのコストが著しく高くなってしまう、という事。この辺のスタディはかなりされていると思いますが、この課題を解決する方法の一つとして、MoE (Mixture of Experts) アーキテクチャ、と呼ばれるニューラル

                                    OpenAIのGPT-4のアーキテクチャへの仮説:Mixture Of Experts(MoE)による拡張性の高いLLM|鈴木いっぺい (Ippei Suzuki)
                                  • 産業界で使い倒せる日本語LLMを リコーが自前のモデル開発に取り組み始めたワケ

                                    産業界で使い倒せる日本語LLMを リコーが自前のモデル開発に取り組み始めたワケ:製造業×生成AI インタビュー(1/3 ページ) 世界中で大規模言語モデル(LLM)の開発成果が次々に発表されている。国内でも日本語対応のLLM開発に取り組む企業が表れているが、その1社がリコーだ。130億パラメーターの日英両言語対応LLMを作った同社に、開発の狙いや今後の戦略を聞いた。

                                      産業界で使い倒せる日本語LLMを リコーが自前のモデル開発に取り組み始めたワケ