高画質画像生成AI「Stable Diffusion 3」のAPIが2024年4月17日に公開されました。Stable Diffusion 3は既存のAIでは失敗することの多い「文字の出力」を得意としています。 Stable Diffusion 3 API のご紹介 — Stability AI Japan https://ja.stability.ai/blog/stable-diffusion-3-api Stable Diffusion 3はStability AIが開発する画像生成AIで、DALL-E 3やMidjourney v6といった画像生成AIと比べてプロンプトに対する忠実性が高いことが人間による評価で確かめられています。また、Stable Diffusion 3はプロンプトの指示通りに文字を出力できることを大きな特徴としており、狙い通りの文章を好みの見た目で描画することが
ポイント Developer Platform APIに、ビデオ生成の基盤モデルであるStable Video Diffusionを追加しました。 モデルは、平均41秒以内に、25フレームの生成フレームと24フレームのFILM補間からなる2秒間のビデオを生成することができます。 APIを通じたStable Video Diffusionの活用に関心のある開発者は、Stability AI Developer Platformで今すぐアクセスできます。 私たちの基盤となる画像-動画モデルであるStable Video Diffusionが、Stable AIのDeveloper Platform APIに追加されました。この新しい追加機能により、広告、マーケティング、テレビ、映画、ゲームなど、さまざまな分野向けに設計された最先端の動画モデルへのプログラムアクセスが可能になります。このリリース
「Google Colab」で「Gemini API」を試したので、まとめました。 1. Gemini API「Gemini API」は、「Google DeepMind」が開発したマルチモーダル大規模言語モデル「Gemini」を利用するためのAPIです。 3. Gemini API の準備Colabでの「Gemini API」の準備手順は、次のとおりです。 (1) パッケージのインストール。 # パッケージのインストール !pip install -q -U google-generativeai(2) 「Google AI Studio」からAPIキーを取得し、Colabのシークレットマネージャーに登録。 キーは「GOOGLE_API_KEY」とします。 import google.generativeai as genai from google.colab import userd
Send feedback Gemini API: Quickstart with Python Stay organized with collections Save and categorize content based on your preferences. This quickstart demonstrates how to use the Python SDK for the Gemini API, which gives you access to Google's Gemini large language models. In this quickstart, you will learn how to: Set up your development environment and API access to use Gemini. Generate text r
Send feedback Gemini API Stay organized with collections Save and categorize content based on your preferences. The Vertex AI Gemini API supports multimodal prompts as input and output text or code. HTTP request The following Gemini models are supported: Gemini ProPOST https://{REGION}-aiplatform.googleapis.com/v1/projects/{PROJECT_ID}/locations/{REGION}/publishers/google/models/gemini-1.0-pro:str
この記事は Safie Engineers' Blog! Advent Calendar 2023 の3日目の記事です! はじめに セーフィー株式会社 で画像認識AIの開発エンジニアをしている水野です。2023年10月1日付で現職にジョインしたのですが、本業で語れるネタがまだ無いので趣味でたまに参加している Kaggle と流行りの生成AIを絡めた記事を投稿します。KaggleについてはKaggle Competitions Masterのランクを保持していますので、コンペに関する知見も織り交ぜながらお話しできればと思います。 早速ですが、このような悩みをお持ちの方はいないでしょうか? Kaggleに登録し、定番のタイタニックコンペを終えて、次は画像系コンペに参加してみたいが、どのように進めたらいいのか分からない 公開Notebookをベースラインとして作業をしているが、コードの意味が理解
OpenAI Vision API とはOpenAIは、自然言語処理の分野で広く認識されているGPT-4というモデルを提供しています。 そして最近、このモデルに画像認識の機能を追加したGPT-4 with Vision(以下、Vision API)がリリースされました。 この記事では、そのVision APIについて詳しく解説します。 Vision APIは、テキストだけでなく画像も理解することができるAIモデルです。 これにより、GPT-4が利用できる領域が大幅に広がりました。 Vision APIの使い方Vision APIは、画像のURLを指定するか、Base64でエンコードされた画像を直接リクエストに含めることで、画像をモデルに提供できます。 画像はuser、system、assistantのメッセージのいずれにも含めることができます。 以下に、Pythonでの使用例を示します。
Supershipの名畑です。ツイステッドワンダーランドの7章のChapter 3がついに公開されたわけなんですが、すぐに読み終わってしまい、続きはよ。はよ。 はじめに これまでOpenAIで遊ぶ記事を色々と公開してきまして、また今更感ありまくりなのですが、最近はstability.aiのAPI群で遊んでおります。テキストからの画像生成モデルであるStable Diffusionがめちゃくちゃ有名ですね。 今回の記事ではアカウントの作成とAPIを呼び出しての画像生成をPythonで実装した記録を残しておきます。 登場するコードはREST API referenceのv1/generationのままです。 自環境 macOS(Monterey)です。 Pythonはすでにインストール済みです。
はじめに 2023/4/13に、AWSが新しい生成AIプラットフォームである「Amazon Bedrock」を発表しました。 この「Amazon Bedrock」を通じて、ビジネスやアプリケーションに最適な生成AIモデルを見つけるための幅広いFoundation Model (FM)を提供するとの発表がされています。 この記事では、Amazon Bedrockがどのように機能し、どのようにしてビジネスに価値をもたらす可能性を秘めているのかを解説します。 1. Amazon Bedrockの仕組み 簡単にまとめると、次のような機能や特徴を持つようです。 AIスタートアップやAmazonが開発した幅広いFMから選択できます。 サーバレスでプライベートにカスタマイズでき、独自のデータを使ってFMを調整できます。 AWSの既存サービスや機能(Amazon SageMakerおよびSageMaker
Amazon Bedrock The easiest way to build and scale generative AI applications with foundation models Amazon Bedrock is a fully managed service that offers a choice of high-performing foundation models (FMs) from leading AI companies like AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI, and Amazon via a single API, along with a broad set of capabilities you need to build generative AI a
Luma's NeRF and meshing models are now available on our API, giving developers access to world's best 3D modeling and reconstruction capabilities. At a dollar a scene or object. Today it costs anywhere from $60-$1500 and 2-10wk, and rounds of back and forth to have 3D models created. At a dollar a model, and around 30 min of compute now we can imagine 3D models for entire inventories for e-commerc
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く