はじめに こんなタイトルをしていますが、私はChatGPTを悪く言う意図は全くありません。ChatGPTは非常に優れた製品ですし、実際に、世界はChatGPTによって大きく変わりました。LLMを大きく普及させた先駆者として、とても偉大な存在です。 今回は、利用料金に焦点を当てた話になります。 Chat GPT Plusを使いたいけど(もしくは、使っているけど)、ちょっと金額が高いな・・・と感じている方に向けた記事になりますので、ご理解いただけると嬉しいです。 ChatGPT、ちょっと高い・・・! GPT-4、精度が高くていいですよね! 僕もプログラムを書くときや、採用するプロダクトを決めるときなんかによく使っています! でも、ChatGPTのGPT-4を使うには、月額3,000円(※)を払う必要がります。 会社が払ってくれるのなら全く問題ないのですが、個人で使うとなると、正直ちょっと高いっ
Stability AI は、音楽とサウンド生成のための初のAIモデルとなる Stable Audio を発表しました。 Stable Audio は、最新の生成 AI 技術を駆使し、使いやすい Web インターフェースを介して、より高速で高品質な音楽とサウンドエフェクトを提供する世界初の製品です。Stability AI は、45秒までのトラックを生成してダウンロードできる Stable Audio の基本無料版と、商用プロジェクト用にダウンロード可能な90秒のトラックを提供する「Pro」サブスクリプションを提供しています。 StabilityAI の CEO である Emad Mostaque は、「唯一の独立した、オープンでマルチモーダルな生成 AI の会社として、音楽クリエイターをサポートする製品を開発するために私たちの専門知識を活用できることを嬉しく思います。私たちの願いは、St
カプコンがiPhone 15 Pro向けに「バイオハザード RE:4」や「バイオハザード ヴィレッジ」を2023年内に発売すると発表しています。詳細は以下から。 Appleは日本時間2023年9月13日午前2時より開催したスペシャルイベント「Wonderlust. (夢中の旅。)」の中で、チタニウム筐体やアクションボタンを採用した「iPhone 15 Pro」と「iPhone 15 Pro Max」には、Apple Siliconとしては初めて3nmプロセスで開発された「A17 Pro」を搭載し、 このA17 ProはApple Silicon史上最大のGPUの再設計が施され、6コアのGPUのピークパフォーマンスは最大20%向上するのに加え、ソフトウェアベースのレイトレーシングと比較して4倍高速なハードウェア・アクセラレーションのレイトレーシングが可能になっていることが発表され、 これによ
IntelがUSB Type-Cコネクタと同一形状のコネクタを備える接続規格「Thunderbolt 5」を2023年9月12日に正式発表しました。Thunderbolt 5は前世代のThunderbolt 4と比べて最大3倍高速なデータ送信が可能なほか、映像の出力や給電にも対応しています。 Intel Introduces Thunderbolt 5 Connectivity Standard https://www.intel.com/content/www/us/en/newsroom/news/intel-introduces-thunderbolt-5-standard.html Thunderbolt™ テクノロジー: 広がる無限の可能性 https://www.intel.co.jp/content/www/jp/ja/architecture-and-technology/
はじめにこんにちは、SAIG/MLOpsチームでアルバイトをしている板野・平野です。 今回は「LLM開発のためにMLOpsチームがやるべきこと」というテーマで、従来のMLOpsとの違い・ツール・構成例等について調査・整理しました。 LLMとはLarge Launguage Model(大規模言語モデル)の略であり、ここでのLLM開発とは、「LLM自体の開発」および「LLMを活用したシステム開発」の両方を含むものとします。LLM開発のフローについては以前にLLM開発のフローで詳細を説明しているので、ぜひ併せてご覧ください。 まず、MLOpsとは「機械学習モデルの実装から運用までを円滑に推進するための手法や考え方」のことです。AIの社会実装が増えるに伴い、MLOpsチームを設ける企業も増えてきました。また、最近ではLLMやその関連技術が急速に発達してきており、今後LLMを用いたアプリケーション
機械学習でスーパーマーケットの缶ビールを検出してみました 〜Segment Anythingでセグメンテーションして、YOLOv8の分類モデルで銘柄を判定〜 1 はじめに CX 事業本部 delivery部の平内(SIN)です。 Meta社による Segment Anything Model(以下、SAM)は、セグメンテーションのための汎用モデルで、ファインチューニングなしで、あらゆる物体がセグメンテーションできます。 今回は、こちらを使用して、スーパーマーケットで冷蔵庫の缶ビールを検出してみました。 最初に、動作確認している様子です。 缶ビールがセグメンテーションされていることと、それぞれの銘柄が判定できていることを確認できると思います。 2 学習済みモデルによる物体検出 (YOLOv8) YOLOv8などの物体検出モデルでは、配布されている学習済みモデルで、ある程度の物体検出が可能です
Intelが最大120Gbpsのデータ転送速度でDual 8Kや240W PDをサポートする「Thunderbolt 5」規格を発表しています。詳細は以下から。 米Intelは現地時間2023年09月12日、昨年10月にUSB-IFが発表したUSB4 v2仕様に合わせて公開していた次世代Thunderboltの規格を「Thunderbolt 5」と決定したと発表しています。 What’s New: Today, Intel announced Thunderbolt™ 5 – the next generation of Thunderbolt – and demonstrated a prototype laptop and dock. Thunderbolt 5 promises to deliver significant improvements in connectivity s
text = """ SeabornのTitanicデータセットを使いLightGBM,XGBoost,CatBoostおよび3つのモデルのアンサンブルした場合で どれが最も精度が良いか検証してください.検証する際は4foldのクロスバリデーションの結果の平均値としてください. 全て日本語で対応してください. """ # return_massagesは出力結果のデータを変数として保持するため引数 # 出力結果はmassagesにも保存される messages = interpreter.chat(text, return_messages=True) 了解しました。以下の手順で進めていきます。 1 必要なライブラリをインストールします。これには、seaborn(データセットの取得)、pandas(データの操作)、numpy cikit-learn(クロスバリデーションと精度評価)、lig
先々月、あるサーバベンダ主催のイベントで、最近のサーバにおける技術トレンドを紹介して欲しいという依頼を受けて、過去10年のサーバ技術のトレンドを振り返るという講演を行いました。 ほぼ10年前は「ムーアの法則が終わる」と本格的に言われ始めた頃で、そこから実はさまざまな技術、例えばストレージクラスメモリやFPGAやメモリドリブンコンピュータなどのプロセッサの回路の微細化以外の技術によるサーバの性能向上技術が注目され、その一部は市場に投入され定着しつつある一方で、商業的な成功を収められなかった多くの技術もありました。 それらをざっと振り返る内容にしたところ、現在のサーバ技術の方向性がなんとなく見えてきたのではないかと思うので、ここで記事として紹介します。 記事は前編と後編に分かれています。いまお読みの記事は後編です。 TPUのような専用プロセッサの登場 機械学習に代表される新しいコンピュータの使
先々月、あるサーバベンダ主催のイベントで、最近のサーバにおける技術トレンドを紹介して欲しいという依頼を受けて、過去10年のサーバ技術のトレンドを振り返るという講演を行いました。 ほぼ10年前は「ムーアの法則が終わる」と本格的に言われ始めた頃で、そこから実はさまざまな技術、例えばストレージクラスメモリやFPGAやメモリドリブンコンピュータなどのプロセッサの回路の微細化以外の技術によるサーバの性能向上技術が注目され、その一部は市場に投入され定着しつつある一方で、商業的な成功を収められなかった多くの技術もありました。 それらをざっと振り返る内容にしたところ、現在のサーバ技術の方向性がなんとなく見えてきたのではないかと思うので、ここで記事として紹介します。 記事は前編と後編に分かれています。いまお読みの記事は前編です。 10年前、「ムーアの法則」が終わると言われ始めた 今から約10年ほど前、201
Intelは現地時間12日、次世代の接続規格「Thunderbolt 5」を発表しました。双方向での80GbpsというThunderbolt 4の2倍の帯域幅が実現されており、540Hzのゲーミングモニターのサポートも理論上可能となっています。 ■3行で分かる、この記事のポイント 1. Intelは12日、次世代の接続規格「Thunderbolt 5」を発表した。 2. 双方向での80Gbpsという、Thunderbolt 4の2倍の帯域幅が実現。 3. 540Hzのゲーミングモニターのサポートも理論上可能となっている。 ブースト時には最大120Gbpsのスピードを発揮 Thunderbolt 4は最大40Gbpsまでの速度をサポートしていましたが、Thunderbolt 5は通常時で80Gbps、Bandwidth Boostの使用時に最大120Gbpsのスピードを発揮します。なお、この
はじめにこんにちは、SAIG/MLOpsチームでアルバイトをしている板野・平野です。 今回は、昨今注目されている大規模言語モデル(LLM)の開発においてMLOpsチームがやるべきことを考えるため、まずはLLM開発の流れを調査・整理しました。 本記事はその内容を「LLM開発のフロー」という題目でまとめたものです。LLMを本番運用するときに考慮すべきこと、LLM開発・運用を支援するサービスやツール・LLMシステムの構成例などについては、「LLM開発でMLOpsチームがやるべきこと」と題して別記事でご紹介していますので、ぜひ併せてご覧ください。 ここでのLLM開発とは、「LLM自体の開発」および「LLMを活用したシステム開発」の両方を含みます。また、「LLM自体の開発」は学習フェーズ、「LLMを活用したシステム開発」は推論フェーズ、として記載しています。 本記事ではLLM開発における各フェーズの
『スクランブルヴァイス』は、治安維持型武装スーツを操りロボテック犯罪に立ち向かう、アーマード2Dロボアクションゲームである。本作の舞台となる2048年の新東京都では、ロボティクス社会が高度に発達。一方で、裏ではロボットを使用した犯罪行為も多発しており、社会問題化となっていた。中でも、武装テロリストによる破壊活動は過激化の一途を辿っており、都市部の治安は悪化し続けていたのだった。 主人公の桜木警は、通称「スクランブルバイス」とも呼ばれる警視庁機動第9課所属の巡査だ。本作で桜木警は、悪名高き機動第9課の一員として、治安維持型武装スーツに搭乗。新東京都で発生するロボテック犯罪へ立ち向かうことになる。新東京都の治安を脅かすロボットとの戦いが描かれるのだろう。 桜木警の操る機体アスラは、複数のミサイルやブーストなどが搭載されている。まず武装としては、銃火器や近接武器が装備可能。ホーミングミサイルは狙
人か、ロボットか 「餃子の王将」と「大阪王将」が異なる一手 厨房で起きている見過ごせない変化:長浜惇之介のトレンドアンテナ(1/5 ページ) 餃子をメインとする代表的な中華チェーンの「大阪王将」と「餃子の王将」で今後、調理の過程が大きく異なっていく可能性が高まっている。大阪王将では、人力に頼っていた調理を代行する、TechMagic(東京都江東区)が開発した調理ロボット「I-Robo」の導入が決まった。一方、餃子の王将では、あくまで人力による調理を追求。店員の調理スキルを磨くべく「王将調理道場」を開設している。機械化によってプロと遜色ない調理を目指す大阪王将に対して、餃子の王将は職人の養成に重きを置いている格好だ。 人手不足に悩む飲食業界では、日本語がおぼつかず、業務遂行も未熟な外国人に店舗運営を任せざるを得ないケースも目立ってきている。限られた人員で、どうすれば安定した料理を提供し続けら
はじめに こんにちは。ELYZAの研究開発チームの佐々木 (@hikomimo)、中村 (@tyo_yo_)、堀江 (@eemon18)、平川 (@h__must__) です。 先日弊社株式会社ELYZAでは以下のようなリリースをさせていただきました。 Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」を公開しました 上記のリリースには、Metaの「Llama 2」をベースとした以下のモデルが含まれます。 日本語追加事前学習済みモデル ELYZA-japanese-Llama-2-7b ELYZA-japanese-Llama-2-7b-fast 上記の事前学習済みモデルに事後学習 (instruction tuning) を実施したモデル ELYZA-japanese-Llama-2-7b-instruct (デモ)
NVIDIAの測定デバイス「PCAT2」で最新GPUから旧モデルまで消費電力を測って分かったこと(前編):準備こそがクライマックス?(1/4 ページ) PCゲームファンにとって、NVIDIAは一挙手一投足が気になってしまうほどの人気GPUメーカーである。最近でこそ、AI(人工知能)ブームの追い風もあって「GPGPU」に注力しているきらいもあるが、ともあれ多くのPCユーザーにとって、NVIDIA製GPUは欠かせない存在となっている。 そんなNVIDIAだが、時々“超マニアック”なハードウェアをリリースすることがある(多くは同社の主力製品であるGPUと関連した製品なのだが)。その1つが、ゲームの入力操作からGPUが映像を描いて表示するまでの総遅延時間を計測する「NVIDIA LDAT(Latency and Display Analysis Tool)」だ。このLDATは、主にPCゲーム業界に
以下の記事を見て、早速「Open interpreter」を試してみたので、使い方や始め方をまとめておきます Open Interpreterとは Open Interpreterは、GPT-3.5、GPT-4、Code Llamaなどの大規模言語モデル(LLMs)を活用して開発されたオープンソースのツールです。 このツールは、OpenAIが提供するChatGPTの「Advanced Data Analysis(旧Code Interpreter)」のオープンソース版とも言える存在で、Python、Javascript、Shellなどのプログラミング言語のコードを自然言語による対話を通じてローカル環境で実行することができます。 このツールの最大の特徴は、ChatGPTの「Advanced Data Analysis」と違いローカル環境で動くため、ファイル容量やネット接続への制約がなく、Ch
あまりにも初歩的な話ではあるけど、オンラインバウンス、オフラインバウンスの出力音を比較するときは、その選択によって挙動を変えるプラグインの存在を考慮する必要があります。 ↓ — David Shimamoto (@gyokimae) September 10, 2023 これに関連して、直接引用はいたしませんが、「〝CPU の負荷が高いと演算の切り捨て行ってる〟 ぼくこれ聞いたことないんですけど、どなたかご存じの方いらっしゃいます?」という内容があります。 とーくばっく の著者 David さんが X (旧 Twitter) で求められていた意見というのは「CPU の負荷が高いと DAW は演算の切り捨てを行ってるか。」という事実関係で、これを発端として、いくつか質問 DM が飛んできたので、David さんへのご回答並びに、質問者への回答として記事を書いています。 これに関して Davi
ガジェット全般、サイエンス、宇宙、音楽、モータースポーツetc... 電気・ネットワーク技術者。実績媒体Engadget日本版, Autoblog日本版, Forbes JAPAN他 ソニーが、ロボット犬『aibo ERS-1000』を対象とする「aiboの里親プログラム」を開始すると発表しました。 2018年に発売されたaibo ERS-1000は、購入時にアプリやクラウド間でデータをやりとりし、学習機能やデータバックアップ、メンテナンス情報の管理などを行うための「aiboベーシックプラン」への加入が必須でしたが、「里親プログラム」ではこのプランの契約期間が満了し、その役目を終えたaiboを寄付の形で回収し、このロボット犬の活用を望む里親(医療機関や介護施設など)へ引き渡すことを目的とします。 もちろん、最低3年間のベーシックプランの期間を経たロボット犬は、個体によって経年劣化や何らかの
ITジャーナリスト/Publickeyブロガー。IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。 Modularは、Pythonの高速なスーパーセットだと同社が位置づける新言語「Mojo」をローカル環境で実行可能にする、コンパイラなどのツール群を公開しました。 Modularは、コンパイラ基盤として広く使われているLLVM、Swift言語、GoogleがAI処理のために設計したCloud TPUなどの開発に関わってきたChris Lattner氏が共同創業者兼CEOを務める企業です。 その同社が5月に初めてMojoを発表した際に、MojoはAI処理を高速に実行するための言語だと説明しました。 下記はMojoの動画「Product Launch 2023 Keynote」から。画面右がChris Lattner氏。 MojoはPython
2023年8月にPython in excel が発表されました。X(旧Twitter)を見ていると「いよいよプログラミングを勉強するべき?」というポスト(ツイート)をいくつか拝見しました。流行りに乗ることはとっても良いことですが、本当に必要なのかどうかは考える必要があると思います。なので今回は簡単ではありますが、Python in Excel、VBA、マクロ、Pythonあたりをまとめたいと思います。 追記 動画バージョンを作成しました。パワーポイントにまとめていますので、聞き流したい方はこちらをご活用ください。 Python in Excel 一言で言うとアナリスト向けと言った感じです。現状はMatplotlibやseabornを使ったグラフ作成(棒グラフ、折れ線グラフ、ヒートマップなど)や、scikit-learnやstatsmodelsを活用した、機械学習の適用が可能です。コードは
2023/09/12 追記 自分の文章スキルの至らなさゆえですが、"雑魚狩り"の指すものを上手く伝えられなかった人がそれなりにいそうです。 ここでの"雑魚狩り"は 「『今まで手こずっていた敵が、途端にザコ扱いできるようになった』という自身の変化を確認する作業」 のことを指します。 雑魚を狩るのが目的ではなく、雑魚を狩ることを通して自分が強いことを確かめるのが目的。 あまりしっくり来る表現が思いつかなかったので本文では"雑魚狩り"と書きましたが、"格付け"としたほうが、より表現として適切かもしれません。 今から本文を読む人は、"雑魚狩り"を"格付け"と読み換えてください。 むろん、このnoteが対人ゲームにおける雑魚狩りや格付けを推奨するものではないことは言うまでもありません。 ※おことわり このnoteは「格ゲーは衰退するしかない。格ゲーは終わり」ということを言いたいのではなく、「格ゲーは
米OpenAIの大規模言語モデル(LLM)・GPT-4は今、世界を大きく塗り替え続けている技術の一つだ。世界各国の企業がこぞってLLMの開発を進めている。特にGAFAなどの巨大企業は、その膨大な資源を使ってすでにいくつものLLMを世に放っている。 そんな中、日本では理化学研究所と富士通、東京工業大学、東北大学が、スーパーコンピュータ「富岳」を使ったLLMの研究を今まさに進めている。学習手法の研究からデータの法的な扱いまで幅広く検討し、日本のLLM開発の基盤を作るのが目的だ。 深層学習といえば、今ではGPUを使うのが一般的になっている。しかし富岳はそのGPUを搭載していない。日本にはGPU搭載スパコンも存在するのに、なぜ富岳を使ってLLMを研究するのか。 今回は富士通研究所・コンピューティング研究所の中島耕太所長と白幡晃一さんに、富岳を使ったLLM研究について、その意義を聞いた。富岳は確かに
1. インストール 1pip install open-interpreter ターミナルで次のコマンドを実行して、Open Interpreter をインストールします。 2. 対話型チャットの開始 インストール後、次のコマンドを実行して、ターミナルで対話型チャットを開始できます。 1interpreter Python で対話型チャットを開始するには、次のコマンドを実行します。 1import interpreter 2interpreter.chat() 2. OpenAI APIキーの設定 OpenAIのAPIキーを利用する場合は設定が必要ですが、OpenAIのキーを使用しない場合は、Code-Llamaを利用することができます。 これで、Open Interpreterを利用する準備が整いました。 Open Interpreterの使い方 タスクの依頼・実行 Open Inter
OpenInterpreter はデフォルトだと GPT-4 が使われるが、ローカルの Code Llama を使うこともできるということで、 試しに設定して使ってみました。 設定をする上で何点かつまづいたので、解決に繋がったものをメモします。 今回使ったハードウェア環境は、M1 Macbook Pro 16GB です。 ローカルの Code Llama を使うにはOpenInterpreter は、ローカルの Code Llama を使うことができます。 ローカルの Code Llama を使うには、以下のようにします。 interpreter --local使いたいモデルのパラーメータを聞かれるので、今回は「7B」「Medium」「GPU あり」を選択しました。 Open Interpreter will use Code Llama for local execution. Use
原画と原画の間にあたる画像を複数枚入れることで、自然な連続性のある動きを作る。アニメの基本となる「中割」作業を画像生成AIが実現する可能性が出てきました。鍵になっているのは「AnimateDiff」という技術。8月に入って、様々なユーザーのアップデートによって機能拡張が進められています。それは完全な画像生成AIで作られるアニメの可能性を垣間見せるほどのものです。 16コマ/2秒の短い動画が生成できる AnimateDiffは7月10日に発表された、上海AIラボ、香港中文大学、スタンフォード大学の共同研究による技術。画像生成AI「Stable Diffusion」の仕組みとデータセットを利用しつつ、数百万本の動画を学習させた「モーションモジュール」と呼ばれるデータセットを別途に参照させることで、連続するキャラクターの動きを生成可能にするというのが基本原理です。生成できる時間は、16コマ/2秒
Pythonの高速なスーパーセットをうたう新言語「Mojo」、コンパイラなど公開、ローカル環境で利用可能に Modular社はPythonの高速なスーパーセットだと同社が位置づける新言語「Mojo」をローカル環境で実行可能にする、コンパイラなどのツール群を公開しました。 Mojo is now available for download locally to your machine! Beyond a compiler, the Mojo SDK includes a full set of developer and IDE tools that make it easy to build and iterate on Mojo applications. Let’s build the future together!https://t.co/KxmLvsxx5e — Modula
米カリフォルニア州サンフランシスコで自動運転タクシーを提供している企業2社のうち1社が、自社のタクシーが関わる事故が相次いだことを受け、市内で運行する車両を半減させることに同意した。直近の事故では、自動運転タクシーが緊急出動中の消防車と衝突。自動運転車サービスは米国各地で導入されているが、問題も相次いでいる。 サンフランシスコでは先週、ゼネラル・モーターズ(GM)傘下のGMクルーズが運行するロボタクシーが消防車と衝突し、乗客1人が負傷した。CBSは消防士の話として、タクシーが交差点で消防車に道を譲らなかったことが原因だったと伝えている。GMクルーズは18日、同市内でのロボタクシー運行数を半分に減らすことに同意した。 一方で、同社サンフランシスコ支部のグレッグ・ディーテリッチ部長は、自社のロボタクシーを擁護。タクシー側は視界に入った消防車を「ほぼ即座」に識別し、サイレンの音も「背景の騒音と区
つまり、Open Interpreterの推しポイントはこちらです。 動作環境 Open Interpreterはクラウドとローカル環境の両方で動作するため、インターネットへのフルアクセスが可能です。これにより、外部APIやデータベースに自由にアクセスでき、プロジェクトの柔軟性が大幅に向上します。 パッケージとライブラリの選択肢 Open Interpreterでは、任意のパッケージやライブラリを使用できます。これは、特定のプロジェクトに最適なツールを選べるという点で非常に価値があります。 制限のない実行時間とファイルサイズ Open Interpreterは実行時間やファイルサイズに制限がありません。大規模なデータ分析や計算処理もスムーズに行えます。 セキュリティの確保 Open Interpreterは、コードを実行する前にユーザーの確認が必要です。不正なコードの実行を防ぐことができ、
𝑭𝒂𝒍𝒄𝒐𝒏 𝑮𝑷𝑻 @makotofalcon サンフランシスコについてからというもの毎日自動運転タクシーに乗ってるんだけど、 安い(Uberに比べて2/3程度) チップが必要ない 道を間違えない 臭くない 運転手に気を使うことがない 好きな音楽をかけ放題 といいことしかなくて人が運転するタクシーにもう乗りたくない pic.twitter.com/cMifS2tHJv 2023-09-09 19:02:39 𝑭𝒂𝒍𝒄𝒐𝒏 𝑮𝑷𝑻 @makotofalcon ちなみにこの子の外見はこんな感じ!これはGMが運営しているCruiseというサービス。今は9pm以降の運営が中心だけど道が空いていれば昼もやってるらしい。 この動画は実車後次のお客さんを求めて走り去っていくところ。 pic.twitter.com/dRs5a0yuOB 2023-09-09 23:4
はじめにコピー機学習法は、LoRAを教師画像と同様の画像しか出力されないレベルまで過学習し(コピー機と呼ばれる理由です)、そこから目的のLoRAを取り出す手法です。詳細は以下の月須和・那々氏の記事をご覧ください。 今回、SDXLでコピー機学習法を試してみました。品質的にはいまひとつですが、一応成功はしましたので、設定等を共有します。 学習にはsd-scriptsを利用しています。 教師データとりにく氏の画像を利用させていただきます。 SDXLにおけるコピー機学習法考察(その1) ①まず生成AIから1枚の画像を出力(base_eyes)。手動で目をつぶった画像(closed_eyes)に加工(画像1枚目と2枚目) ②画像3枚目のレシピでまずbase_eyesを学習、CounterfeitXL-V1.0とマージする ③②のモデルをベースに4枚目でclosed_eyesを学習 pic.twitt
はじめに Blender。めっちゃ楽しいです。 仕事が終わって帰ってきてから、ほぼ朝の時間までBlenderにひたすら打ち込んで 休日の大半もBlenderに捧げるような生活をここ3週間くらい続けてきました。 ここまでの学びの整理と、Blender布教のために この記事に概要をまとめたいと思います。 Blenderの世界観 Blenderを始めるにあたって、まず第一にぶち当たる壁として 「3Dソフト特有の概念」があると思います。 他の、3Dソフトを触ったことがある人はすんなり扱えるかもしれませんが、 僕はなかったので、概念理解にちょっと苦戦しました。 Blenderの世界を構成する主な要素として シーン オブジェクト ライト カメラ これらが挙げられます。 シーンとは、 一つのBlenderファイル内に格納されている要素全てを包含する3Dワールドのようなものです。 オブジェクトとは、 一次
米Amazonは9月7日(現地時間)、Kindle用電子書籍出版サービス「Kindleダイレクト・パブリッシング」のコンテンツガイドラインを更新し、人工知能(AI)コンテンツに関する条項を追加した。 出版するコンテンツ(テキスト、画像、翻訳)を生成AIベースのツールによって作成した場合は、申告することを義務付ける。 ガイドラインに従っていないことが判明したコンテンツは却下または削除される。 なお、自分の作品をAIツールで編集、改良、エラーチェックした場合は、AI生成コンテンツとはみなさない。また、アイデア出しの段階でAIツールを使っても、最終的に自分でテキストや画像を作成した場合は対象外という。 これは、Authors Guild(全米作家協会)が7月に公開した、AIのトレーニングに作家の作品を無断で使わないよう求める書簡を受けたものとみられる。 Authors Guildは同日、Amaz
Open-interpreterとは ターミナル上でLLMにプロンプトを差し出すと、命令通りにコードを書いて実行してくれるプログラム。 前提条件 Anacondaがインストールされている ターミナルの使い方を知っている インストール $ conda create -n interpreter python=3.11 $ conda activate interpreter $ pip install open-interpreter $ env:FORCE_CMAKE=1; $env:CMAKE_ARGS='-DLLAMA_CUBLAS=on' $ pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir -vv
著書に『宇宙世紀の政治経済学』(宝島社)、『ガンダムと日本人』(文春新書)、『教養としてのゲーム史』(ちくま新書)、『PS3はなぜ失敗したのか』(晋遊舎)、共著に『超クソゲー2』『超アーケード』『超ファミコン』『PCエンジン大全』(以上、太田出版)、『ゲーム制作 現場の新戦略 企画と運営のノウハウ』(MdN)など。 Nintendo Switchも発売から7年目を迎え、そろそろライフサイクルの終わりに差し掛かりつつあります。 そんななか、後継モデル(以下「スイッチ2」)の未確認情報も相次いでいましたが、今度は「任天堂が実際に開発者にスイッチ2の技術デモを見せた」と複数の人物が証言しています。 いずれも、先月下旬にドイツ・ケルンで開催された大型ゲームイベントgamescom 2023での証言です。 まずはイベント終了直後、マイクロソフト関連で信頼性の高いWindows Centralの編集者
僕の20年来の親友にnpakaというプログラマーがいるんだけど、彼はもう超凄い。何でもすごい。何でも書けるし何でも早い。本を書くのもプログラムを書くのも、新しいわけわかんない説明書がバグだらけの環境に慣れるのも早い。 んで、これまではちょっとしたことも難しいことも全部npaka(布留川君)に頼んでたんだけど、最近二人とも独立したからつまんないこと頼むのは悪いなと思って「あれはできるんだっけ」くらいのことは自分で何とかしようかなと思った。 それでChatGPTに「Swiftで⚪︎⚪︎やるにはどうすんの?」と聞いたら、Swiftについてほとんど何も勉強してないのに作りたいものが何となくすぐにできてきちゃって、でもまあやっぱりChatGPTだと知識が古いので詰まったらネットで検索すると、だいたい結局npaka(布留川君)のページが出てきてやはり信頼と実績の大先生(仲間内ではそう呼ばれている)です
この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 このシリーズが良いと思った方はぜひ共有もよろしくお願いします! 前回(第一回) https://youtu.be/tc8RTtwvd5U?si=15_MXStvqOZqL74O (英語版概要欄より)------------------------------------- さらに学びたい方へ、Michael Nielsenの本 http://neuralnetworksanddeeplearning.com こちらの本ではシリーズで扱われている例のコードを説明していきます: https://github.com/mnielsen/neural-networks-and-deep-learning MNIST d
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く