米Googleは5月14日(現地時間)、大規模言語モデル(LLM)「Gemini 1.5 Flash」を発表した。「Gemini 1.5 Pro」を改良した軽量モデルで、低レイテンシとコストが最も重要なタスク向けに調整されているという。同日からGoogleが提供する開発者向け環境I「Google AI Studio」と「Vertex AI」で最大100万トークンを利用できる。 関連記事 米Google、動画生成AI「Veo」発表 テキストから60秒超え動画を作成 サンプルも多数公開 米Googleは、動画生成AI「Veo」を発表した。 Google、オープンな生成AIモデル「Gemma」公開 商用利用OK、Geminiと同じ技術の軽量LLM 米Googleは、大規模言語モデル(LLM)「Gemma」を公開した。同社が開発するLLM「Gemini」に使ったのと同じ技術を活用して開発した軽量版
米Googleは5月14日(現地時間)、大規模言語モデル「Gemini 1.5 Pro」をAIチャット「Gemini Advanced」に導入すると発表した。1.5 Proは100万トークン(おおむね単語数の意味)のコンテキストウィンドウ(AIモデルが応答を生成できるテキストの量)を持つAIモデル。最大1500ページの文書を読み解いたり、100件の電子メールを要約できたりするという。 コンテキストウィンドウを活用するために、Googleドライブ経由でGemini Advancedへファイルを直接アップロードできる機能も追加した。同社は「間もなく、1時間のビデオコンテンツや、3万行を超えるコードベースを処理できるようになる」とアピールしている。なお、Gemini 1.5 ProとGemini Advancedの両方で日本語に対応している。 これにより、GoogleドキュメントやPDF、スプレ
Do your best work with Gemini for Workspace Gemini for Workspace helps you work smarter, not harder, increasing productivity and saving time so you can focus on higher-impact work. This guide explores different ways to quickly jump in and gain mastery of the basics to help you accomplish your day-to-day tasks. Explore foundational skills for writing effective prompts organized by role and use case
Google Cloud、Vertex AI における Gemini、Imagen、Gemma、MLOps のアップデートを発表 ※この投稿は、2024 年 4 月 10 日に、Google Cloud blog に投稿されたものの抄訳です。 Vertex AI は、あらゆるハイパースケール プロバイダのさまざまな基盤モデル、堅牢なインフラストラクチャ オプション、モデル開発と MLOps のための豊富なツール セットへのアクセスを提供するほか、生成 AI アプリやエージェントの構築だけでなく、デプロイとメンテナンスもできるワンストップ プラットフォームです。本日 Google Cloud Next ‘24 で、モデルに関するアップデートやプラットフォーム機能など、Vertex AI のさらなる強化を発表しました。 Gemini 1.5 Pro を Vertex AI のパブリック プレビ
Googleは2月21日(現地時間)、Google WorkspaceユーザーがGmailやドキュメント、スライド、スプレッドシート、MeetでGeminiを利用できるGemini for Google Workspaceの提供を開始しました。 日本でも利用できますが、いまのところ対応は英語のみとなっています。 プランとしては、既存のDuet AI for Workspaceに代わるGemini Enterprise(年間契約で1ユーザーあたり月額30ドル)と、より低価格なGemini Business(年間契約で1ユーザーあたり20ドル、日本では2712円)の2つを用意しています。 個人ユーザー向けには、すでにGoogle OneのAIプレミアムプランが提供されていますが、今回のGemini for Google Workspaceは企業などの組織向け。提供する機能としては、基本的には同
メディア関係者向けお問い合わせ先 メールでのお問い合わせ: pr-jp@google.com メディア関係者以外からのお問い合わせにはお答えいたしかねます。 その他すべてのお問い合わせにつきましては、ヘルプセンターをご覧ください。
Googleがテキスト・画像・ムービーをまとめて処理できるマルチモーダルAI「Gemini」の次世代モデルとして「Gemini 1.5」を発表しました。処理できるトークン数の上限が100万まで上昇したほか、従来の1.0モデルと比べて少ない計算で高い品質の結果を提供できるとのことです。 Google Japan Blog: 次世代モデル、 Gemini 1.5 を発表 https://japan.googleblog.com/2024/02/gemini-15.html 従来モデルであるGemini 1.0は「GPT-4を超える性能のマルチモーダルAI」として2023年12月6日に登場しました。最上位モデルのGemini 1.0 Ultraを使用したハンズオンムービーではまるで人間かと思うような受け答えをしている様子が確認できます。 文字・音声・画像を同時に処理して人間以上に自然なやりとりが
こちらのトピックス“生成AI最前線「IKIGAI lab.」”は、学び合うことを目的としたオンラインビジネスコミュニティ「OUTPUT CAMP meets AI」のメンバーで運営しています。 今回は突如としてBardからGeminiに変わったGoogleの生成AI「Gemini Advanced」について、検証した結果を共有させていただきます。 所感として、Geminiはすごいです。 そして、革命的に働き方が変わる予感がします。ただ現状では、ChatGPTと比べてプロンプトの精度は低く、思い通りの出力を得られるのは、もう少し先でしょう。 具体的なプロンプトと将来への展望を記載したので、ぜひ最後までお読みください。 GeminiとChatGPTの機能の違い 下記の表に、GeminiでできることとChatGPTでできることをまとめました。 大きな違いとしては、Geminiには画像生成がまだ実
Googleは2023年12月6日、文字・音声・画像を同時に処理できるマルチモーダルAI「Gemini」を発表しました。現地時間の12月13日、Geminiのミドルモデルである「Gemini Pro」がAPIを介してアクセス可能となり、開発者や企業が独自のユースケース向けに構築できるようになりました。 Google Gemini API: New developer and enterprise AI products https://blog.google/technology/ai/gemini-api-developers-cloud/ Google: Gemini API, Imagen 2, Duet AI and more updates https://blog.google/technology/ai/google-gemini-pro-imagen-duet-ai-upd
Google / Alphabet CEO Sundar Pichaiからのメッセージ すべてのテクノロジーの変化は、科学的探求を前進させ、人類の進歩を加速し、生活をより良くする機会となります。いま目の当たりにしている AI による変化は、私たちの人生で最も意味深いものになると確信しています。これは、これまでのモバイルやウェブへの移行よりも、はるかに大きなものになるでしょう。AI は、日常から非日常に至るまで、あらゆる場所の人々に機会を生み出す可能性を秘めています。AI は、イノベーションと経済発展の新たな波をもたらし、これまでにない規模で知識、学習、創造性、生産性を高めます。 世界中のあらゆる場所で、あらゆる人に AI を役立てられることが、私がとてもワクワクしている理由です。 私たちが AI ファーストを掲げ取り組みを開始してから 8 年近くが経ちますが、進化の速度はより一層早くなって
「生成AIイヤー」とも言える2023年も終わりに近づいてきたが、ここにきてグーグルがさらに新しい技術を投入すると発表した。 グーグルは12月7日(日本時間)、生成AI向けの新しい大規模言語モデル「Gemini(ジェミニ)」を発表した。 自社のチャットAI「Bard」はもちろん、「Pixel 8 Pro」をはじめとしたAndroidスマートフォンへの組み込みも進める。 グーグルのスンダー・ピチャイCEOはリリースの中で、Geminiをこう表現する。 「賢いソフトウェアというよりも、より便利で直感的な、相談できる専門家または仲間のように感じられるようになる」 グーグルが本気で取り組んだGeminiとは、どんな存在なのだろうか。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く