並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 55件

新着順 人気順

LLMの検索結果1 - 40 件 / 55件

  • 無料で使える最高のAIノート『NotebookLM』使い方と活用事例|AI-Bridge Lab こば

    こんにちは!最近、ChatGPTと話しすぎてAI風の口調がうつってきたAI-Bridge Labのこばです!👋 今回の記事はGoogleのサービス『NotebookLM』(ノートブックLM)について 1.NotebookLMの概要 2.使い方 3.具体例として過去のnote記事を全部読ませた結果どうなったか この3点を分かりやすくご紹介します! 先に結論だけお伝えするとかなり実用性が高くオススメのツールです! そしてこの記事を読んで頂ければご自身での活用法が想像できるようになると思いますので、ぜひ最後まで読んで頂けますと幸いです! 1.NotebookLMの概要公式サイト:https://notebooklm.google.com/ NotebookLMは、Googleが提供する生成AIサービスで、ユーザーのメモ書きやアップロードした資料を基に情報を整理し、質問に答えることができる革新的

      無料で使える最高のAIノート『NotebookLM』使い方と活用事例|AI-Bridge Lab こば
    • めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 (1/5)

      OpenAIは5月30日、同社のチャット型AI「ChatGPT」無料版ユーザーに向け、制限付きながら最新の大規模言語モデル「GPT-4o」および、これまで有料版ユーザーしか利用できなかった多くの機能を公開した(発表時のニュース記事)。 情報がとても多いので、今回の変更で無料版ユーザーは「なにができるようになったか」、そして「なにができないのか」を使い方中心にまとめた。 1. GPT-4oは回数制限あり チャット型AIアプリの心臓とも言える大規模言語モデル(LLM)、これまで無料版ユーザーは「GPT-3.5」という旧世代モデルしか利用できなかったが、今回の変更で回数制限(具体的な回数は明記されていない)はあるものの、最新モデルのGPT-4oが使えるようになった。 GPT-4oの利用に特に設定などは必要なく、無料アカウントにログインして普通に質問すればOK(使い方はちょっとわかりにくいのでこち

        めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 (1/5)
      • アップル、待望のAIシステム発表へ-WWDCでの注目点

        Apple’s Tim Cook and Craig Federighi at last year’s WWDC. Photographer: Philip Pacheco/Bloomberg 米アップルは通常、新しい製品カテゴリーに最初から飛びつくことはしない。スマートフォンの「iPhone」、腕時計型端末「Apple Watch」、複合現実(MR)ヘッドセット「Vision Pro」もそうだった。すでに立ち上がっていた分野に製品を投入し、自らの足跡を残す方法を見つけてきた。 人工知能(AI)分野でもそれをしようとしているようだ。生成AIの熱狂が始まってから2年近くが過ぎた今、この技術に関するビジョンを打ち出す準備を進めている。米太平洋時間10日午前10時(日本時間11日午前2時)に開幕する世界開発者会議(WWDC)で同社は、主要なアプリや機能にAIを深く統合する計画を発表するとみられて

          アップル、待望のAIシステム発表へ-WWDCでの注目点
        • ChatGPTプログラミングのすすめ

          ChatGPTなどの大規模言語モデル (Large Language Model; LLM) にプログラミングやリファクタリングをさせる場合、目的に合ったものが作られているかを何らかの方法で検証する必要がある。 プログラムの正しさを完全に保証する方法はないが、ある程度の正しさを継続して担保するための方法を探ってみたので以下にまとめた。 ポイントは、ChatGPTの生成したプログラムの検証にもやはりChatGPTの力を借りることである。 実行可能性と入出力のチェック プログラムを生成するタスクである場合、いつでも「実行できるか?」というチェックが可能である。これは自然言語の生成と大きく異なる点だろう。実行可能性を確かめることは最低限のチェック項目になる。 エラーが出力された場合、自力で修正するか、もしくは、エラーの内容をChatGPTに提示して修正を依頼し、再度実行可能かを確かめる。 入力・

            ChatGPTプログラミングのすすめ
          • Googleが開発したPythonのUIフレームワーク「Mesop」の特徴を開発チームが解説

            Googleのチームが開発したPython用のUIフレームワーク「Mesop」の特徴や使い方について、開発チームがブログに投稿しています。 Why Mesop? - Mesop https://google.github.io/mesop/blog/2024/05/13/why-mesop/ 多くのPython用UIフレームワークは簡単に使い始められるものの、標準的な使用方法を超えてカスタマイズを行おうとするとJavaScriptやCSS、HTMLの詳しい知識が必要です。MesopはPython内で動作を完結させることでよりPython開発者にとって扱いやすいUIフレームワークになっています。 MesopはコンポーネントベースのUIフレームワークで、UI全体がコンポーネントと呼ばれるブロックを積み重ねて作成されています。Pythonの関数を呼び出すのと同じ要領でMesopのコンポーネントを

              Googleが開発したPythonのUIフレームワーク「Mesop」の特徴を開発チームが解説
            • AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!

              空前のAIブームの中にあって、その開発の現場で「一人勝ち」とも言うべき圧倒的なシェアを誇っているNvidia(エヌビディア)のGPU向け開発環境「CUDA」。IntelやAppleといったライバルたちを尻目に、いかにしてCUDAはトップに登り詰めたのでしょうか。今回のメルマガ『週刊 Life is beautiful』では世界的エンジニアとして知られる中島聡さんが、CUDA誕生の経緯から業界の「事実上の標準」となるまでを詳しく解説。さらにMicrosoftが5月20日に発表した「Copilot+PC」に関して、中島さんが注目したポイントを記しています。 ※本記事のタイトル・見出しはMAG2NEWS編集部によるものです/原題:NvidiaのCUDAが今の地位を築いた経緯 プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシ

                AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!
              • Doing RAG? Vector search is *not* enough

                I'm concerned by the number of times I've heard, "oh, we can do RAG with retriever X, here's the vector search query." Yes, your retriever for a RAG flow should definitely support vector search, since that will let you find documents with similar semantics to a user's query, but vector search is not enough. Your retriever should support a full hybrid search, meaning that it can perform both a vect

                  Doing RAG? Vector search is *not* enough
                • 10年前、150万円で買ったNVIDIA株が4億円になった人の話→「私なら10倍くらいで手放してしまう…」

                  FabyΔ @FABYMETAL4 メタラー兼業投資家。2013年にNVIDIA $NVDA に150万円投資し10年間ガチホ中。2024年、生成AIの登場によるNVIDIA GPU需要増で 150万円→4億円 (280倍) を達成。米国企業分析、決算分析、AIトレンド、特にNVIDIAに関する情報発信をしています。たまにメタル界隈にPOPします🤘 FabyΔ @FABYMETAL4 本日、ガチホ10年目のNVIDIAが150万円→4億円(280倍)を達成しました。NVIDIAには感謝の一言に尽きます。ありがとう $NVDA pic.twitter.com/WEnJm1Ks8K x.com/fabymetal4/sta… 2024-06-06 05:46:25 FabyΔ @FABYMETAL4 本日、保有10年目のNVIDIAが 円換算で150万円→3億円(200倍)となりました。 先

                    10年前、150万円で買ったNVIDIA株が4億円になった人の話→「私なら10倍くらいで手放してしまう…」
                  • Googleマップの「タイムライン」機能、ブラウザ版が廃止に 「不便になる」などの声も

                    米Googleは、Webブラウザ版Googleマップの「タイムライン」機能を廃止する。タイムラインは、自分の移動履歴を記録できる機能で、これまでは使用する位置情報データをGoogleのサーバに保存していた。今後、データが各スマートフォンに直接保存されるようになるのに伴い、PCなどWebブラウザ版Googleマップでのタイムライン機能の利用ができなくなる。 仕様の変更についてはGoogleマップアプリの全てのユーザーに段階的にリリースし、利用アカウントでアップデートが可能になると通知が届くという。Googleマップのヘルプコミュニティーによると、機能を利用する場合はデータの保存期間を指定し、タイムラインを「このままオンにする」と設定。これまでの移動履歴については、データをエクスポートし、スマートフォンに取り込む必要がある。 通知に従って設定し、データをスマートフォンに移動した後は、ブラウザ版

                      Googleマップの「タイムライン」機能、ブラウザ版が廃止に 「不便になる」などの声も
                    • LLM にコードを「差分」で書き換えさせるためのアイデア

                      既存の LLM コード生成の問題 LLM は行カウントやワードカウントが苦手。 例えば自分は SourceMap を扱うコードのテストを書かせようとしたが、モックデータの line:column がガバガバな位置を指してまともにテストにならない。行カウント/ワードカウントができないのはつまり diff がうまく生成できない。 これらの問題があって、コードを生成するパイプラインを組む場合、 全文出力が主流になっている。 ここで何が問題になるかというと、コードが膨らんで来た時に、(書き変える対象が一部だとしても)生成が顕著に遅くなる。うまく生成できなかった時にリトライを繰り返すと、問題がさらに悪化する。 改善手法の提案: 明示的な Line Number の付与 最近の LLM は入力ウィンドウがある程度大きくても、そこそこの速度で応答する。(お金はかかるが...) 問題は生成速度にある。特に

                        LLM にコードを「差分」で書き換えさせるためのアイデア
                      • ローコードLLMアプリ開発環境「Dify」を使って、SynologyのNAS上で動くAIチャットを作る【イニシャルB】

                          ローコードLLMアプリ開発環境「Dify」を使って、SynologyのNAS上で動くAIチャットを作る【イニシャルB】
                        • RAGで人間の脳を再現。「HippoRAG」を理解する

                          はじめまして。ナレッジセンスの門脇です。生成AIやRAGシステムを活用したサービスを開発しています。本記事では、RAGの性能を高める手法である「HippoRAG」について、ざっくり理解します。 この記事は何 この記事は、RAGの新手法として最近注目されている「HippoRAG」の論文[1]について、日本語で簡単にまとめたものです。 「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 本題 ざっくりサマリー HippoRAGは、RAGの性能を高めるための新しい手法です。オハイオ州立大学の研究者らによって2024年5月に提案されました。HippoRAGを使うメリットは、複数の知識を組み合わせて回答する必要があるような、複雑な質問に強くなることです。HippoRAGが従来のRAGに比べて、複雑な質問に強い理由は、ナレッジグラフと、それを継続的に

                            RAGで人間の脳を再現。「HippoRAG」を理解する
                          • 生成AIの台頭に伴うABCにおけるルール変更について - AtCoder

                            現在、ABCにおいて、生成AIを利用して問題を解くユーザが一定数存在し、競技性が少し失われ、レーティングの信頼性が減少しております。 生成AIは、現在のプログラミング環境から切り離すことは非常に難しく、一括禁止をするべきものではありません。ですが、生成AIに問題を解かせるだけの行為は、競技としても、ITエンジニアとしての能力証明としても価値があるとは言い難く、AtCoderとして禁止するべきだと考えております。 ## ルール 詳細なルールは以下のページをご確認ください。 [AtCoder生成AI対策ルール - 20240607版](https://info.atcoder.jp/entry/llm-abc-rules-ja) ルールの概要を説明すると、 - AtCoderから提供される問題文のテキストや画像を、直接生成AIなどのプログラムに与えることを禁止する - AtCoderの問題文を

                              生成AIの台頭に伴うABCにおけるルール変更について - AtCoder
                            • IQ100超えを達成したAIモデルのClaude 3は「いい性格」を持つようにトレーニングされている

                              元OpenAIのエンジニアが設立したAIスタートアップのAnthropicは、大規模言語モデル(LLM)ベースのチャットAIである「Claude」を開発しており、2024年3月にリリースされた「Claude 3」は推定IQが人間の基準値である「100」を上回ったとして注目を集めています。そんなAnthropicが、「AIモデルに有益な性格特性を持つようにトレーニングする」という試みについて報告しました。 Claude’s Character \ Anthropic https://www.anthropic.com/research/claude-character Exploring Claude 3's Character: A New Approach in AI Training - Blockchain.News https://blockchain.news/news/expl

                                IQ100超えを達成したAIモデルのClaude 3は「いい性格」を持つようにトレーニングされている
                              • 【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】

                                はじめに GMO NIKKOの吉岡です。 みなさん、生成AIは活用してますか? ChatGPTに始まり、Claude3やGeminiなど、実用的なAIがどんどん出てきてますね。 自分も使ってはきましたが、課金が気になってしまいます。 これではサービスに組み込むことは難しいですよね。 そのためローカルで動くLLMを追ってきましたが、今年に入って実用的な日本語を返すことができるモデルがいくつか出てきているので、サーバー構成からインストール方法、LLMの起動まで紹介しようと思います。 ローカルLLMを動かす上で一番重要なのはGPUのVRAMです。 LLMは7B、13B、70Bモデルが多いですが、量子化しない場合、必要なVRAM容量は動かすモデルの大体2倍なので、13Bモデルでは26GのVRAMが必要です。 NVIDIAのGPUを使ったCUDAが前提になっているのですが、一般向けでは24Gモデルが

                                  【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】
                                • LLMにまつわる"評価"を整理する

                                  「LLMの評価」というフレーズを見て、どんなことを思い浮かべるでしょうか? おそらく大半はLLMモデル自体の評価のことを思い浮かべると思います。新しいモデルが出てきた時に𝕏で見かける「GPT-4o のMMLUベンチマークは89%!」みたいなアレ。 ですが、プロダクト開発にLLMを使っている人の間では、プロンプト等が十分な品質を出しているかの確認などにも評価という言葉を使っていることは多いのではないかと思います。 うまい具合に後者を区別するためにいい感じの呼び名を付与したい気持ちがあるのですが、英語圏での例を見てみるとシンプルに"Evals"と呼んでることもあれば Evaluating LLM System Evaluating LLM-based Applications などなど表現の仕方は様々になっています。 そしてそのプロダクト開発文脈での評価も、実態としてはオフライン評価やオンラ

                                    LLMにまつわる"評価"を整理する
                                  • アップル、「iOS」に「ChatGPT」を組み込むOpenAIとの提携をWWDCで発表か

                                    Appleの最高経営責任者(CEO)であるTim Cook氏が、2月の四半期決算説明会で人工知能(AI)に関する計画を示唆し、「大きな機会がある」とだけ語っていた意味が、ようやく分かるかもしれない。 Bloombergなどの報道によると、Appleは米国時間6月10日から開催する年次開発者会議WWDC24でOpenAIとの提携を発表し、「iOS」に「ChatGPT」を組み込む計画だという。 Appleは米CNETからのコメント依頼に回答しなかった。OpenAIはコメントを控えるとした。 Bloombergは先に、この件に詳しい関係者の話として、両社が合意に向けて動いていると報じていた。取引は5月に成立したとされている。 Bloombergによると、AppleはGoogleともチャットボット「Gemini」のライセンスについて交渉中で、最終的にはさまざまなサードパーティーのチャットボットを提

                                      アップル、「iOS」に「ChatGPT」を組み込むOpenAIとの提携をWWDCで発表か
                                    • 月間はてなブックマーク数ランキング(2024年5月) - はてなブックマーク開発ブログ

                                      はてなブックマークのブックマーク数が多い順に記事を紹介する「はてなブックマーク数ランキング」。2024年5月のトップ50です*1。 順位 タイトル 1位 仕事の進め方がグダグダの会社はどうすればいいのか、「プロジェクトマネジメントの基本が全部わかる本」の著者に聞いてみた | Agend(アジェンド) 2位 取調べを受けることになったら ー取調べを受ける心がまえについてー - しんゆう法律事務所 3位 1on1ミーティングガイド (1on1ガイド) 4位 正常独身青年、先祖の戸籍を取り寄せる 5位 令和のHTML / CSS / JavaScriptの書き方50選 6位 ひとり社長の経理の基本|Tetsuya Morimoto 7位 知れば写真が上手くなる!基本・応用の構図15選と構図を使いこなすコツ | Adobe 8位 【個人資産800億円】“伝説の投資家”清原達郎氏の情報収集「会社四季

                                        月間はてなブックマーク数ランキング(2024年5月) - はてなブックマーク開発ブログ
                                      • LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携

                                        LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携 すべての経済活動のデジタル化を目指す株式会社LayerXは、AI・LLM事業部において、大規模言語モデル(LLM)を用いてドキュメントワークを効率化する、ノーコード・ノープロンプト生成AIプラットフォーム「Ai Workforce」をリリースしました。また開発・営業にあたっては日本マイクロソフト株式会社(以下、日本マイクロソフト)と連携。システム基盤には Microsoft Azure を活用し、セキュリティと柔軟性の両立を実現します。 AI・LLM事業部では今後、プロダクトマネージャーやエンジニア等の採用を強化し、エンタープライズ企業への提供を加速していきます。 概要 LayerXは2023年11月、企業や行政のLLM(大

                                          LayerX、エンタープライズ企業のドキュメントワークを効率化する生成AIプラットフォーム「Ai Workforce」をリリース。日本マイクロソフトと開発・営業で連携
                                        • AtCoder生成AI対策ルール - 20240607版 - AtCoderInfo

                                          はじめに このルールは、AtCoder Beginner Contest(以下、ABCとする)のコンテスト中にのみ適用されるルールです。 AtCoder Regular Contest, AtCoder Grand Contest, AtCoder Heuristic Contestなどは、このルールの対象外です。過去問を練習している際には適用されません。ABCのコンテスト中においては、Unrated参加者にも適用されます。今回発表するルールは、2024年6月現在の生成AIの能力と利用状況に合わせて制定されたものです。今後のAI事情の変化に応じて、ルールを変更する予定です。 ルールの制定背景などは、以下をご確認ください。 生成AIの台頭に伴うABCにおけるルール変更について ルール AtCoderの開催中のコンテストの問題として発信されている情報の全部または一部を、ソフトウェアに入力として

                                            AtCoder生成AI対策ルール - 20240607版 - AtCoderInfo
                                          • 小規模言語モデル(SLM)とは? マイクロソフトPhi-3やグーグルGammaは何を競うのか?

                                            生成AI領域における言語モデルは今、いくつかの方向で開発が進められている。 その1つは「大規模言語モデル(LLM)」の開発。大規模言語モデルは、生成AIの代名詞的な存在で、文字どおりサイズ(パラメータ数)が大きなモデルを指す。最近の例でいえば、GPT-4oやClaude 3 Opusなどが代表格といえるだろう。パラメータ数は公開されていないが、非常に大規模なモデルといわれており、パフォーマンスもかなり高いものとなっている。 もう1つが、大規模言語モデルに比べ規模が小さな言語モデル(Small Language Model=SLM)の開発だ。SLMとは、LLMよりもパラメータ数が少なく、よりコンパクトで効率的なAIモデルのことを指す。一般的にLLMが数百億から数千億のパラメータを有するのに対し、SLMは数億から数十億程度のパラメータで構成される。 LLMは、テキストや画像、音声、動画など幅広

                                              小規模言語モデル(SLM)とは? マイクロソフトPhi-3やグーグルGammaは何を競うのか?
                                            • LLMによるLLMの評価(LLM as a judge)の精度改善のための試行錯誤〜評価分割・モデル間比較

                                              LLM-as-a-Judgeとは LLMをアプリケーションに組み込んでいると、LLMの出力を評価する必要が出てきます。 LLMの「出力は確率的である(毎回異なる)」ためです。 また、LLMの出力はハルシネーションを含む可能性がありますし、間違いではないにしてもサービス提供者の意図とは違った出力をエンドユーザーに提示してしまうかもしれません。 LLMの出力を評価して、出力が適切でないことを判定できれば、ユーザーには表示しない、出力を再度行わせる(出力をLLMに修正させるのもよいでしょう)というようなことができるようになります。 ただし、LLMのすべての出力を人が評価していたのでは、手が回りません。 そこで、注目されているのが、LLM-as-a-Judgeと呼ばれるLLMにLLMの出力を評価させる手法(以後、単に評価と呼ぶ)です。 評価にLLMを使えば、出力をすぐに評価し、評価結果をアプリケー

                                                LLMによるLLMの評価(LLM as a judge)の精度改善のための試行錯誤〜評価分割・モデル間比較
                                              • Blog - Private Cloud Compute: A new frontier for AI privacy in the cloud - Apple Security Research

                                                Private Cloud Compute: A new frontier for AI privacy in the cloud Written by Apple Security Engineering and Architecture (SEAR), User Privacy, Core Operating Systems (Core OS), Services Engineering (ASE), and Machine Learning and AI (AIML) Apple Intelligence is the personal intelligence system that brings powerful generative models to iPhone, iPad, and Mac. For advanced features that need to reaso

                                                • 中国AIが加速。Soraに匹敵する中国の動画生成AI「KLING」、中国アリババの最新オープンLLM「Qwen 2」登場など生成AI関連技術5つを紹介(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                  2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第50回目は、生成AI最新技術の概要5つを紹介します。 生成AI論文ピックアップ Soraに匹敵する動画生成AI「KLING」登場。中国のショート動画アプリ開発チーム「快手」が手がける アリババグルーブが開発するオープンソースな大規模言語モデルの新バージョン「Qwen 2」登場 ラベルなし静止画の学習だけ、ビデオ内の動く物体を検出・追跡できるモデル「MASA」 相手が話している適切なタイミングで同時翻訳するAIモデル「StreamSpeech」 OpenAIが大規模言語モデルの中身を理解するモデルを発表。GPT-4の中身は1600万の特徴を持つ Soraに匹敵する動画

                                                    中国AIが加速。Soraに匹敵する中国の動画生成AI「KLING」、中国アリババの最新オープンLLM「Qwen 2」登場など生成AI関連技術5つを紹介(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                  • WWDC24予言 - cockscomblog?

                                                    今年も書いておく。 AI 今のAppleに最も期待されているトピックであり、Google I/O、Microsoft Buildなどで競合他社が最も力を入れているのがAI。当然WWDC24でも、「AI」という語が飛び交うことになる。 「AI」という語を使い始めたApple Appleは2024年5月のスペシャルイベントでLogic Pro*1とFinal Cut Pro*2のアップデートを発表したが、そこでは機械学習を活用した機能を「AI機能」と宣伝するようになった。これは例えば、Apple Watchのダブルタップジェスチャーでは「機械学習アルゴリズム」と表現していた*3のと比べると、わかりやすい変化である。 とはいえWWDC24では、AIの中でもとりわけLLMを含む生成AIについて発表されるだろう。ここで、Appleのプライバシー重視の姿勢とどう折り合いをつけるかというのが一つの焦点に

                                                      WWDC24予言 - cockscomblog?
                                                    • Fate Stay Nightで学ぶGraphRAG(GoogleColab付) - Sun wood AI labs.2

                                                      はじめに Graph retrieval augmented generation (Graph RAG) は、従来のベクター検索による情報検索手法に強力な手法として注目を集めています。Graph RAGは、データをノードと関係性で構造化するグラフデータベースの特性を活かし、検索された情報の深さと文脈性を高めます。 本記事では、人気アニメ「Fate Stay Night」のWikipediaデータを使って、LangChainとNeo4jを用いたGraph RAGの実践的な構築方法を初心者向けに解説します。 環境のセットアップ まずは必要なライブラリをインストールしましょう。 %%capture %pip install --upgrade --quiet langchain langchain-community langchain-openai langchain-experimenta

                                                      • 本来あるべきSiri、AIを統合したOS。Apple Intelligenceの未来を見た僕がCopilot+ PCの検討を始めた理由(CloseBox) | テクノエッジ TechnoEdge

                                                        visionOS 2、iOS 18、iPadOS 18、macOS Sequoiaが披露されたアップルの開発者会議「WWDC24」基調講演の後半は、主要プラットフォームへの生成AI統合の話に終始しました。 今回のキーワードとなった「Apple Intelligence」(つまり、AI)は、オンデバイス処理とクラウド上のPrivate Cloud Compute(Appleシリコンベース)を組み合わせ、さらにOpenAIのChatGPTも統合できるという、ユーザーが望む姿に近いものを提示してきました。 ChatGPTはアカウントを作らずに使えるだけでなく、サブスクライバーであればその優先的な機能を利用することもできます。 長らく停滞気味だったSiriもコンテキストを理解できるようになり、ChatGPTなどのAIを活用した音声システムに近いところまで来たようです(まだ差はありますが)。画面に表

                                                          本来あるべきSiri、AIを統合したOS。Apple Intelligenceの未来を見た僕がCopilot+ PCの検討を始めた理由(CloseBox) | テクノエッジ TechnoEdge
                                                        • 時系列基盤モデルの世界 / The World Of Time Series Foundation Models

                                                          【LT大会#7】LLMの活用・機械学習・データ分析関係のいろいろな話題にふれようの資料です https://studyco.connpass.com/event/318107/

                                                            時系列基盤モデルの世界 / The World Of Time Series Foundation Models
                                                          • 「AWS Cloud Quest日本語版」に、機械学習を実践的に学べる「Machine Learning(機械学習)」が追加

                                                            Amazon Web Service(AWS)は、ゲームを通じてAWSを学べる「AWS Cloud Quest日本語版」に、新たに「Machine Learning(機械学習)」の教材が追加されたことを明らかにしました。 「AWS Cloud Quest」は、クラウド技術者となったプレイヤーがクエスト内の街の住人から出題される課題やクイズなどを、AWSを使って解決しつつ、クラウドの技術を学んでいくオンラインロールプレイングゲームです。 実際にAWSのサービスを組み合わせてソリューションを構築するため、非常に実践的な内容となっています。 2022年3月に英語版が登場し、その後に日本語版で、入門編としてプレイヤーがクラウドプラクティショナー(クラウドを実践する人)となってプレイする「クラウドプラクティショナー」ロールと、ソリューションアーキテクトとしてゲームをプレイする「ソリューションアーキテ

                                                              「AWS Cloud Quest日本語版」に、機械学習を実践的に学べる「Machine Learning(機械学習)」が追加
                                                            • 「学びの宝庫」はてなサマーインターンシップ2024!今年の見どころ - Hatena Developer Blog

                                                              組織・基盤開発本部長の id:onishi です。募集締切が迫る「はてなサマーインターンシップ2024」ですが、応募するかまだ悩んでいるあなたのために、今年の見どころをいくつかご説明させていただきます。 京都で過ごす一週間 今年のインターンは、京都(講義パート/1週間)+リモート(実践パート/2週間)のハイブリッド形式です。特に講義の集中している前半を京都で過ごすことで、インターン同期の仲間との絆を深めたり、対面で学ぶことで濃密な一週間を過ごしていただけます。 もちろん、交通費は支給、遠方の方にはホテル(5泊)を手配します。 リモートワークで会社がどう回っているか はてなは、「フレキシブルワークスタイル制度」で、在宅・出社を自由に選択できる、としています。これにより、オフィス出社率は10%程度となっています。では在宅中心で会社ってどのように回っているの?という疑問には、後半の実践パートで、

                                                                「学びの宝庫」はてなサマーインターンシップ2024!今年の見どころ - Hatena Developer Blog
                                                              • Transformerを性能で凌駕、AIの新たな可能性を拓く5月の注目論文

                                                                生成AI(人工知能)を含む最新のAI研究動向を知るため、世界中の研究者やエンジニアが参照しているのが、論文速報サイト「arXiv(アーカイブ)」である。米OpenAI(オープンAI)や米Google(グーグル)などAI開発を主導するIT企業の多くが、研究成果をarXivに競って投稿している。 そんなarXivの投稿論文から、2024年5月(1日~31日)にSNSのX(旧Twitter)で多く言及されたAI分野の注目論文を紹介する。調査には米Meltwater(メルトウォーター)のSNS分析ツールを利用した。対象はXの全世界のオリジナル投稿、コメント、再投稿、引用投稿である。調査は、日経BPが2024年1月に新設したAI・データラボの活動の一環として実施した。 Transformer並みの拡張性をLSTMで実現 5月に最も多く言及された論文は、オーストリアの研究チームが発表した「xLSTM:

                                                                  Transformerを性能で凌駕、AIの新たな可能性を拓く5月の注目論文
                                                                • GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

                                                                  この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 日本語版Twitter https://twitter.com/3B1BJP 元チャンネル(英語) https://www.youtube.com/c/3blue1brown 元動画(英語) https://www.youtube.com/watch?v=eMlx5fFNoYc&t=795s&pp=ygUVYXR0ZW50aW9uIDNibHVlMWJyb3du 新チャンネルUfolium https://www.youtube.com/watch?v=nF7gFRebGTk&pp=ygUHdWZvbGl1bQ%3D%3D https://www.youtube.com/watch?v=wrNCjIjIzuk&p

                                                                    GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
                                                                  • マイクロソフトがUAEのAI企業G42に15億ドル投資 米政府の意向を反映、米中AI覇権争いの渦中に | AMP[アンプ] - ビジネスインスピレーションメディア

                                                                    マイクロソフトとG42が4月16日に調印。左からG42取締役に就任したマイクロソフトのブラッド・スミス副会長兼社長、G42のタフヌーン・ビン・ザイド会長、G42のペン・シャオCEO(出典:G42公式サイトhttps://www.g42.ai/resources/news) 米マイクロソフトは4月、UAE(アラブ首長国連邦)の首都アブダビを拠点とするAI企業、G42(Group 42 Holding)に15億ドル(約2,300億円)を投資すると発表した。両社はすでに協業関係にあったが、今回の多額の投資を機に、マイクロソフトがG42の少数株主となり、取締役を送り込む。G42の側は今後、マイクロソフトのAzureクラウドサービス上で、AIアプリケーションとサービスを実行することになる。 これは一見、投資と業務提携の深化という、よくあるビジネス事案だが、実際には米国、UAE両政府がこの案件に強く関

                                                                      マイクロソフトがUAEのAI企業G42に15億ドル投資 米政府の意向を反映、米中AI覇権争いの渦中に | AMP[アンプ] - ビジネスインスピレーションメディア
                                                                    • MMLUをアップデートしたベンチマーク『MMLU-Pro』Phi-3やLlama 3、Claude 3、GPT-4oなどの評価結果 | AIDB

                                                                      参照論文情報 タイトル:MMLU-Pro: A More Robust and Challenging Multi-Task Language Understanding Benchmark 著者:Yubo Wang, Xueguang Ma, Ge Zhang, Yuansheng Ni, Abhranil Chandra, Shiguang Guo, Weiming Ren, Aaran Arulraj, Xuan He, Ziyan Jiang, Tianle Li, Max Ku, Kai Wang, Alex Zhuang, Rongqi Fan, Xiang Yue, Wenhu Chen 所属:University of Waterloo, University of Toronto, Carnegie Mellon University 背景 GPT-4、Claude、Ge

                                                                        MMLUをアップデートしたベンチマーク『MMLU-Pro』Phi-3やLlama 3、Claude 3、GPT-4oなどの評価結果 | AIDB
                                                                      • iOS18でSiriが大幅に進化!AI機能満載で操作が簡単に - iPhone Mania

                                                                        iOS18では人工知能(AI)関連機能が強化されると見込まれていますが、なかでもAppleの音声アシスタント、Siriが大きく進化する、とAppleの次世代OS開発状況に詳しい人物から得た情報としてAppleInsiderが報じています。iOS18やmacOS 15は、日本時間6月11日午前2時からの世界開発者会議(WWDC24)基調講演で発表される見込みです。 iOS18やmacOS 15、AI搭載によりSiriが大幅に進化 iOS18やmacOS 15のSiriは「Safariを開いて」のような直接的な指示に単純に応じるだけではなく、ユーザーが何をしようとしているか、どんな気分か、といった状況を踏まえて対応できるようApple内部での開発が進んでいる模様です。 多くのApple純正アプリで、Siriがどのように進化するかをAppleInsiderが報じています。 ブック iOS18では

                                                                          iOS18でSiriが大幅に進化!AI機能満載で操作が簡単に - iPhone Mania
                                                                        • Chrome内蔵LLM Gemini Nanoを使ってみた

                                                                          はじめに Chrome 126からローカルで使えるLLM Gemini Nanoが使えるようになりました。 本記事では実際に使ってみようと思います。 前準備 まずはChrome Release ChannelsにてDev channelのChromeをインストールします。 インストールできたら下記機能を有効にします。 Enables optimization guide on device: Enabled BypassPerfRequirement Prompt API for Gemini Nano: Enabled 次に、LLMのダウンロードが必要のため、 chrome://components/にアクセスし、Optimization Guide On Device Modelのアップデート状況を確認します。 まだダウンロードされていない場合は、アップデートを確認ボタンでダウンロード

                                                                            Chrome内蔵LLM Gemini Nanoを使ってみた
                                                                          • 「AI PC」と強調されども中身は空っぽのComputex 2024

                                                                            「AI PC」と強調されども中身は空っぽのComputex 2024 2024.06.09 Updated by Ryo Shimizu on June 9, 2024, 15:18 pm JST 過日、台北にて開催されたComputex Taipei 2024に行ってきた。 貧乏性の我輩としては、原稿料の出る媒体(本欄)にComputexレポートを書いて少しでも旅費を回収したい。 国内のコンピュータ系のジャーナリストは、どこを向いてもメーカーからお金や旅費を出してもらってメーカーの思う通りの記事を書く人だらけになってしまった。 そうじゃない人もいるのかもしれないけど、これは昨今の媒体の原稿料が信じられないくらい安くなっていることを考えると仕方のないことではないかと思う。 筆者は収入のうちで原稿料が占める割合は5%くらいだが、それでも「原稿料が高い方」と言われている(自分で原稿料を決めたこ

                                                                              「AI PC」と強調されども中身は空っぽのComputex 2024
                                                                            • 革命的AIノート「NotebookLM」完全ガイド:読書・リサーチ・議事録まで超便利な使い方

                                                                              Googleが実験的に公開しているノートアプリ「NotebookLM」は、最新AI「Gemini」を組み込んだ革新的な文書管理・作成ツールだ。 これまで米国内でしか利用できなかったところ、ついに、日本からも利用することができるようになった。 「NotebookLM」では、PDF、メール記録、議事録などあらゆるドキュメントを、AIの知識源として読み込ませることができ、AIがそれらのソースに基づいて情報を整理・要約してくれたり、ドキュメントやレポートの作成補助までしてくれたりする。 その応用可能性は無限大で、例えば以下のようなあらゆるナレッジベースのタスクを高速化・効率化することができる。 読書をしながら重要なポイントの要約メモ・ノートを作成する作業 過去の議事録に基づいて次回のMTGのアジェンダを作成する作業 収集した文献や学術論文に基づいてレポートや報告文書をまとめる作業 本や授業スライド

                                                                                革命的AIノート「NotebookLM」完全ガイド:読書・リサーチ・議事録まで超便利な使い方
                                                                              • OpenAIの投資計画はアポロ計画の70倍?加速し膨張するAI開発投資、バブルの懸念も:朝日新聞GLOBE+

                                                                                AI開発企業が抱えるもうひとつの課題は、AI開発投資が極端なまでに大規模化しつつあることだ。OpenAIやマイクロソフトのようなAI開発企業は、今後数年の間に、AI関連の開発投資を「1000億ドル(約15兆6000億円)」あるいは「7兆ドル(約1092兆円)」と極端な規模へと拡大する野望を抱いている。現状のAIの100倍、あるいはそれ以上の規模のAIを作り出すためだ。 大規模投資計画は現状の100倍以上 2024年2月、AI開発企業OpenAIのCEOであるサム・アルトマンが、AI向け半導体の増産とAIデータセンター増強のために実に5兆〜7兆ドル(780兆〜1092兆円相当)の資金を集めていると経済紙ウォールストリート・ジャーナルが報じた。アラブ首長国連邦(UAE)政府、ソフトバンクの孫正義CEO、台湾の半導体メーカーTSMCと話し合いをしているという。 この7兆ドルという数字は誇大妄想と

                                                                                  OpenAIの投資計画はアポロ計画の70倍?加速し膨張するAI開発投資、バブルの懸念も:朝日新聞GLOBE+
                                                                                • GenAI Handbook

                                                                                  William Brown @willccbb | willcb.com v0.1 (June 5, 2024) Introduction This document aims to serve as a handbook for learning the key concepts underlying modern artificial intelligence systems. Given the speed of recent development in AI, there really isn’t a good textbook-style source for getting up-to-speed on the latest-and-greatest innovations in LLMs or other generative models, yet there is an