並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 1532件

新着順 人気順

GPUの検索結果1 - 40 件 / 1532件

  • CPUとGPUのマルチスレッディングの違いについて - arutema47's blog

    "Locality is efficiency, Efficiency is power, Power is performance, Performance is King", Bill Dally マルチスレッディングとは? CPUとGPUのマルチスレッディングの違いをブログにまとめていたけど例によって誰も興味なさそう— arutema47 (@arutema47) 2021年8月16日 つぶやいたら読みたい方が多そうだったので完成させました。 マルチスレッディングとはメモリ遅延を隠蔽しスループットを上げるハードウェアのテクニックです。 ただCPUとGPUで使われ方がかなり異なるため、その違いについて考えてみる記事です。 (SIMDについて並列プログラミングの観点から触れるべきでしたが、時間無いマルチスレッディングに注目するため初版では省きました。) 本記事について 本記事はCPUとG

      CPUとGPUのマルチスレッディングの違いについて - arutema47's blog
    • 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も

      1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pm JST 2月は中国では春節というお正月があり、春節にはみんな休む。 それもあってか、12月から1月にかけて怒涛の論文発表が行われて毎日「デイリーAIニュース」を配信している筆者は忙殺されていた。 春節中にはOpenAIがSoraを、GoogleがGemini1.5を発表したのは、その合間を縫ってのことだった。もはやAI最前線の戦いは研究が行われる場所の文化や風土に影響を受けるところまで来ている。 そして春節もあけた今週、さっそくAlibabaがとんでもないトーキングヘッドモデルを引っ提げて登場したかと思えば、Microsoftの中国チームがとてつもないLLMをリリース

        1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
      • なぜもっとたくさんのコアを搭載したCPUを作らないのでしょうか?2000コアのGPUなんかそこら辺にありますが、なぜCPUでは同じようにできないのでしょうか?

        回答 (9件中の1件目) 質問に間違いがありますね。 2000個のコアが入ったGPUなんかありません。企業の広報は違った(間違った)方法で計算して数字を大きく見せています。 Radion 6900XTの本当のコア数(DCU)は、5120個ではなく、40個です。こちらでダイの写真を確認でき、4*5のコアが2グループあります。 各コア(DCU)には32レーンのSIMDユニットが4つあり、各コアには並列に動作する32 bitの浮動小数点演算ユニット(FMA)が128個あり、チップ全体としては32 bitのFMAが5120個同時に動きます。 Zen2とZen3のCPUコアはどちらも256...

          なぜもっとたくさんのコアを搭載したCPUを作らないのでしょうか?2000コアのGPUなんかそこら辺にありますが、なぜCPUでは同じようにできないのでしょうか?
        • ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能

          OpenAIの対話型AI「ChatGPT」は史上最も急速な成長で「月間1億ユーザー」をわずか2カ月で達成するなど、大いに注目を集めています。それに伴い、GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表したり、中国企業が続々とChatGPT風AIを開発していると報道されている一方で、OpenAIはChatGPTのコードを公開していないためChatGPTを効果的に複製することは難しくなっています。AIのディープラーニングトレーニングを最適化するオープンソースプラットフォームのColossal-AIが、ChatGPTトレーニングプロセスをわずか1.6ギガバイトのGPUメモリで7.73倍高速なトレーニングに再現したと告知し、オープンソースで公開しています。 Open-source replication of ChatGPT implementation process!

            ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能
          • やはり予想を超えてこなかったGPT-4と、GPUの未来、ホビイストへの手紙

            やはり予想を超えてこなかったGPT-4と、GPUの未来、ホビイストへの手紙 2023.03.16 Updated by Ryo Shimizu on March 16, 2023, 08:00 am JST 3月14日の早朝、GPT-4が公開され、筆者は早速試した。 その後、開けて3月15日の早朝、APIも部分的に解放され、筆者はそれも試した。 その上で、先週書いた記事の内容についての確信が深まった。 やはり、GPT-4は期待を超えてはこなかった。 GPT-4は、ChatGPT Plusに入会すると誰でもすぐに使うことができる。APIだけは招待制だが、それも筆者と同じくらいのタイミングでアンロックされた方も少なくないのではないか。 100倍規模のパラメータがあっても、アプローチには限界があるのである。 また、ChatGPTが注目を集めたことで、これまで下火になっていた他の大規模言語モデル(

              やはり予想を超えてこなかったGPT-4と、GPUの未来、ホビイストへの手紙
            • 「AI研究の6カ月停止」を要請したイーロン・マスク、自分は1万個のGPUを買い込み独自のAIプロジェクトを進めていることが判明

              by JD Lasica from Pleasanton, CA, US イーロン・マスク氏率いるTwitterが約1万個ものGPUを買い入れて、膨大なツイートで学習した独自のジェネレーティブAIの開発を進めていることが報じられました。マスク氏は、AIが制御不能となり社会と人類に深刻なリスクをもたらすと主張し、最先端のAIプロジェクトの6カ月停止を要求した書簡に署名をしたばかりです。 Elon Musk reportedly bought thousands of GPUs for a Twitter AI project | Engadget https://www.engadget.com/elon-musk-reportedly-bought-thousands-of-gpus-for-a-twitter-ai-project-214535382.html 伝えられるところによると、

                「AI研究の6カ月停止」を要請したイーロン・マスク、自分は1万個のGPUを買い込み独自のAIプロジェクトを進めていることが判明
              • 【Stable Diffusion】AIイラストにおすすめなグラボをガチで検証【GPU別の生成速度】 ちもろぐ

                月額料金なし、無制限の生成枚数でAIイラストをガシガシ描くなら、Stable Diffusionをローカル環境にインストールする「AUTOMATIC1111版Stable Diffusion WebUI」が必要です。 しかし、ローカル版AIイラストはグラフィックボードも必須です。 VRAM容量が多くないとダメ RTX 4000シリーズが良い Radeonは絶対にNG などなど・・・。いろいろな情報が飛び交っていますが実際のところはどうなのか? やかもちグラフィックボードをなぜか40枚ほど所有している筆者が、実際にStable Diffusionを動かして徹底的に検証します。 (公開:2023/3/8 | 更新:2024/4/3) この記事の目次 Toggle AIイラスト(Stable Diffusion)におすすめなグラボを検証 検証方法:AIイラストの生成速度をテストする AIイラスト

                  【Stable Diffusion】AIイラストにおすすめなグラボをガチで検証【GPU別の生成速度】 ちもろぐ
                • ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦

                  ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 2023.08.19 Updated by Ryo Shimizu on August 19, 2023, 16:47 pm JST そろそろ業界の最深部でしか知られてなかった事実がニュースになって来始めているのでここで本当の問題を明らかにしておきたい。 AI開発に必須なのは、計算資源である。そしてこれは現在のところ、事実上NVIDIAが一社独占している。 NVIDIA以外の半導体がいくら「AIに特化しています」と能書きを垂れていてもごくわずかな例外を除いてはほとんど全部が誇大広告である。 たとえばApple Silliconは、「ニューラルエンジン」と称するモジュールを内蔵しているが、これを使ってAIの学習をすると、なんとCPUよりも遅い。信じられないかもしれないが、これが残酷な事実なのである

                    ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦
                  • ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました - 勝間和代が徹底的にマニアックな話をアップするブログ

                    最近よく、今話題のAIお絵かきソフト、Stable Diffusionで遊んでいるのですが、問題は、デスクトップパソコンしか強いGPUを積んでいないので、いちいち、デスクトップまで戻らないとできないことです。 でも仕事はだいたいノートパソコンの方でやっていますので、それだとちょっと仕事の合間に遊ぶということができません。 私のノートパソコンには、GTX 1650とかGTX 1660ぐらいの弱いGPUは載っているのですが、ちょっと絵を作らせると1枚1分ぐらいかかってしまうので、あまり試行錯誤かできないので、実用的ではないです。 デスクトップのRTX2060Superなら、だいたい512×512で1枚の絵を4秒くらいでかけますので、それらいのGPUがノートにもほしいなーーー、と思いました。 しかし、そのクラスのノートパソコンを買おうと思うと、それこそ30万円コースでとてつもなく、高いです。しか

                      ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました - 勝間和代が徹底的にマニアックな話をアップするブログ
                    • 【レビュー】 至って普通のノートPCでもゲームがサクサク動く!ドック機能を備えた超小型GPUボックス「GPD G1」を試す

                        【レビュー】 至って普通のノートPCでもゲームがサクサク動く!ドック機能を備えた超小型GPUボックス「GPD G1」を試す
                      • GPUでZIPパスワードを解析する - Qiita

                        企業間のファイルのやり取りにZIPファイルの暗号化がされていることが多いのですが、その暗号は意味がなかったり、弱かったり、余計にセキュリティリスクが高くなっています。ZIPの暗号化が使えないことを証明するにはパスワードを解析するのが一番です。 パスワードが解析できるなら、もうあとからパスワードを送る必要はないのです。 用意するもの Windows PC Windows10を使いました。 GPU できる限り早いやつ ノートPCなので、外付けGPUケースにThunderbolt3でGPUを接続しています。 GTX 2080とケースで 10万円ぐらいかかっています。 CUDA Toolkit あらかじめ入れておきましょう。 hashcat hashcatのWindows版で公式サイトからダウンロードしたもので、バージョンが5.1.0の場合は古いので対応していません。 Windows版のJohn

                          GPUでZIPパスワードを解析する - Qiita
                        • Docker 19.03新機能 (root権限不要化、GPU対応強化、CLIプラグイン…)

                          NTTの須田です。2019年7月23日に公開された、Docker 19.03の新機能をお伝えします。2018年11月8日にリリースされたDocker 18.09以来、8ヶ月ぶりのリリースです。 root権限不要化従来のDockerは、ホストのroot権限でデーモン(dockerd)を動作させる必要があったため、脆弱性や設定ミスを突かれると、ホストのroot権限を奪われる恐れがありました。 Docker 19.03では、非rootユーザでデーモンを実行できるようになりました(Rootlessモード)。 Rootlessモードを有効化することで、万一Dockerに脆弱性や設定ミスがあっても、攻撃者にホストのroot権限を奪取されることを防ぐことが出来ます。ただし、現時点ではcgroupを利用できないなどの制約があります。 RootlessモードのDockerは, curl -fsSL http

                            Docker 19.03新機能 (root権限不要化、GPU対応強化、CLIプラグイン…)
                          • クラウド最安のGPUについて | やねうら王 公式サイト

                            渡辺名人が購入した130万円のパソコン、クラウドでそれと同じ性能のもの、1時間50円で使えるよとツイートしたらえらくバズった。 上のツイートは、決して渡辺名人の研究を揶揄するものではなく、書き方次第で最低にも最高にも聞こえるという、そういう物事の二面性みたいなのって面白いよねという意味でツイートしたわけである。 しかし「クラウドの料金そんなに安くねーだろ」「それってGPUだけの値段ですよね?」「値段一桁間違えてない?」「クラウド使ったことない奴の妄想乙」みたいなツッコミをたくさん頂戴している。

                            • 「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる

                              AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-vs-tpu-vs-npu/ Cloud TPU の概要  |  Google Cloud https://cloud.google.com/tpu/docs/intro-to-tpu?hl=ja ◆CPUとは? CPUは「Central Processing Unit」の略称で、PCでの文書作成やロケットの進路計算、銀行の取引処理など多様な用途に用いられています。CPUでも機械学習を行うこ

                                「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる
                              • Windows 10プレビューでついにLinuxのGUIアプリが動作。オーディオやGPUも対応

                                  Windows 10プレビューでついにLinuxのGUIアプリが動作。オーディオやGPUも対応
                                • Apple、GPUを1チップに統合して驚異的な性能を発揮する「M1 Pro」、「M1 Max」

                                    Apple、GPUを1チップに統合して驚異的な性能を発揮する「M1 Pro」、「M1 Max」
                                  • Apple、M1後継を多数準備中か Intelハイエンド上回る32高性能コア、NVIDIAやAMDの数倍性能のGPUも

                                    Appleの半導体担当エンジニアらは、M1チップ搭載Macの後継となる幾つかのプロセッサの開発に取り組んでおり、期待通りならIntel製チップを搭載した最新機種をパフォーマンスで大幅に上回る可能性があると、計画の非公開を理由に複数の関係者が匿名を条件に明らかにしたと、Bloombergが伝えている。 プロセッサの次期シリーズは2021年の春と秋のリリースが計画されており、MacBook Proのアップグレード版やiMacのエントリーレベル用に、16個もの高性能コアと4個の高効率コアを備えた設計に取り組んでいるそうで、製造状況次第で8個か12個の高性能コアのみが有効になるバリエーションも用意する予定だと関係者は話しているそうだ。 2021年後半に計画されているハイエンドデスクトップコンピュータと2022年までに発売が計画されている新しいハーフサイズのMac Pro向けに、32個もの高性能コア

                                      Apple、M1後継を多数準備中か Intelハイエンド上回る32高性能コア、NVIDIAやAMDの数倍性能のGPUも
                                    • 「CPU最強 vs. GPU最強」──進化する将棋AIのいま プロに勝利した「Ponanza」から「水匠」「dlshogi」まで

                                      「CPU最強 vs. GPU最強」──進化する将棋AIのいま プロに勝利した「Ponanza」から「水匠」「dlshogi」まで:プロ棋士向け最強将棋AIマシンを組む!(1/4 ページ) 将棋のプロ棋士である広瀬章人八段向けに「最強の将棋AIマシン」を組むべく奔走する本連載。前回は、プロ棋士の間でコンピュータを使った研究が本格化していること、必要な演算装置には多コアCPUである米AMDの「Ryzen Threadripper」や並列計算の多いAI処理に向いたGPUがあることを紹介した。 今回注目するのは、「CPU計算による将棋ソフト」と「GPU計算による将棋ソフト」のいまの実力と、それにつながる技術的な変遷についてだ。 コンピュータ将棋がプロに勝った日 その技術は“AIブーム”にあらず コンピュータ将棋の歴史は長く、コンピュータ将棋協会が主催する「世界コンピュータ将棋選手権」の第1回は19

                                        「CPU最強 vs. GPU最強」──進化する将棋AIのいま プロに勝利した「Ponanza」から「水匠」「dlshogi」まで
                                      • 女性 on Twitter: "M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7"

                                        M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7

                                          女性 on Twitter: "M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7"
                                        • 最強CPU将棋ソフト『水匠』VS最強GPU将棋ソフト『dlshogi』長時間マッチ観戦記 第一譜『水匠』杉村達也の挑戦

                                          取材・文/白鳥士郎 「……まさか?」 『水匠』開発者・杉村達也は、自身の開発した将棋ソフトの読み筋にその文字を見つけた瞬間、血の気が引いていくのを感じた。 『それ』が存在することを、杉村は事前に知ってはいた。 同時に、極めて再現性が低いということも知っていた。ある棋士はその出現率を「2年で3~4回」と語っていたのだから……。 『それ』について、『やねうら王』の開発者である磯崎元洋(やねうらおのペンネームで知られる)もやはり「再現性がない」という理由で、大して取り合ってくれなかった。 つまり、いつ出るかわからないし、出る確率も極めて低いということである。 しかしそれが今、水匠の読み筋の中にはっきりと出現していた。 「え!? こ、ここで出るのか……」 しかも『それ』が出たのは、水匠だけではなかった。 検討のために別のパソコンを使って走らせていた、別のソフトでも……その『バグ』が出現していたのだ

                                            最強CPU将棋ソフト『水匠』VS最強GPU将棋ソフト『dlshogi』長時間マッチ観戦記 第一譜『水匠』杉村達也の挑戦
                                          • NEC、「標準的GPU 1基で動く」世界トップクラスの日本語LLM

                                              NEC、「標準的GPU 1基で動く」世界トップクラスの日本語LLM
                                            • 【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(2)。緑のたぬきと赤いきつねのバトルで育まれたGPU技術たち

                                                【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(2)。緑のたぬきと赤いきつねのバトルで育まれたGPU技術たち
                                              • GPUに比べて最大15倍高速な市販CPU向けのディープラーニングアルゴリズムが開発される

                                                近年のAIは、人間が手を加えなくてもコンピューターが自動的に大量のデータからそのデータの特徴を発見する「ディープラーニング(深層学習)」という学習手法で動いています。このディープラーニングは、コンピューターゲームに代表されるリアルタイム画像処理に特化した演算装置・プロセッサであるGPUで処理されるというのが通例ですが、ライス大学のコンピューター科学者がIntelと共同で「GPUに比べて最大15倍も高速にディープラーニングできるCPU向けソフトウェア」を開発しました。 ACCELERATING SLIDE DEEP LEARNING ON MODERN CPUS:VECTORIZATION, QUANTIZATIONS, MEMORY OPTIMIZATIONS, AND MORE (PDFファイル)https://proceedings.mlsys.org/paper/2021/file/

                                                  GPUに比べて最大15倍高速な市販CPU向けのディープラーニングアルゴリズムが開発される
                                                • ビットコインが暴落してマイニングしてた人達が中古GPUを投げ売り→「お前らのせいでGPUが値上がりしてたんだよ誰が買うか」と怨嗟の声が上がる

                                                  henomohesan🍚へのごはん @henomohesan 暗号通貨の暴落で中古GPUが投げ売りされてるけど、そういうの買っちゃダメと断じるPC記事。 マイニングに対するものすごい敵意が見える😅 g-pc.info/archives/25921/ pic.twitter.com/TrDQlylAmh 2022-06-17 19:49:58

                                                    ビットコインが暴落してマイニングしてた人達が中古GPUを投げ売り→「お前らのせいでGPUが値上がりしてたんだよ誰が買うか」と怨嗟の声が上がる
                                                  • Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理

                                                    Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理 GoogleのChrome開発チームは、WebブラウザでGPUプログラミングを可能にするWeb標準「WebGPU」が、4月26日にリリース予定のChrome 113で正式な機能として提供されることを明らかにしました。 WebGPU, one of the biggest additions to the Web platform is finally shipping in Chrome! Many thanks to all Chromium contributors in making this possible.https://t.co/26vmxtQWi1 https://t.co/FKGC3M3FVD — Chrome Developers

                                                      Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理
                                                    • GPUの性能比較がひと目で行えるヒエラルキー図公開―Nvidia「RTX 4090」全条件でTOPという結果に | Game*Spark - 国内・海外ゲーム情報サイト

                                                        GPUの性能比較がひと目で行えるヒエラルキー図公開―Nvidia「RTX 4090」全条件でTOPという結果に | Game*Spark - 国内・海外ゲーム情報サイト
                                                      • 【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?

                                                          【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?
                                                        • 「WSL 2」が今後の主流に? LinuxのGUIアプリも動作可能? ~「WSL」のこれからに注目/「WSL」の有効化もコマンド一発で簡単に。GPUコンピューティングやAIも「WSL」で【やじうまの杜】

                                                            「WSL 2」が今後の主流に? LinuxのGUIアプリも動作可能? ~「WSL」のこれからに注目/「WSL」の有効化もコマンド一発で簡単に。GPUコンピューティングやAIも「WSL」で【やじうまの杜】
                                                          • テキストから画像を生成できるオープンソースのStable Diffusionアプリ「Diffusers for Mac」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍に。

                                                            テキストから画像を生成できるオープンソースのMac用Stable Diffusionクライアント「Diffusers」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍になっています。詳細は以下から。 DiffusersはiPhone用カメラアプリ「Camera+」などを開発するPedro Cuencaさんがオープンソースで開発していたStable Diffusionアプリで、現在はCuencaさんが学習済みの機械学習モデルやデータセットなどを公開/共有するHugging Face HubのMLエンジニアになられたことで、Hugging Faceの公式Macクライアントとなっていますが、このDiffusersのバージョン1.1アップデートがリリースされています。 Generate images up to twice as fast!

                                                              テキストから画像を生成できるオープンソースのStable Diffusionアプリ「Diffusers for Mac」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍に。
                                                            • Asahi Linux開発者のVTuberが「AppleのM1 GPUをLinuxで動作させるためのドライバー開発」について語る

                                                              Apple独自開発のSoCであるM1チップを搭載したMacでの動作を目指すLinuxディストリビューション・Asahi Linuxの開発に携わる開発者兼VTuberの朝日リナ氏が、M1 GPUのドライバー開発についてAsahi Linux公式ブログで解説しています。 Tales of the M1 GPU - Asahi Linux https://asahilinux.org/2022/11/tales-of-the-m1-gpu/ リナ氏によれば、近年のGPUはほぼすべて、以下のようなメインコンポーネントで構成されているとのこと。 ・ユーザー定義のプログラムを実行して三角形(頂点データ)とピクセル(フラグメントデータ)を処理する「シェーダーコア」 ・三角形を画面上のピクセルに変換する「ラスタライズユニット」「テクスチャサンプラー」「レンダー出力ユニット」、およびシェーダーと一緒に動作す

                                                                Asahi Linux開発者のVTuberが「AppleのM1 GPUをLinuxで動作させるためのドライバー開発」について語る
                                                              • Unity、ゲームの最適化に関する電子書籍を無料公開。「モバイル」「コンソール/PC」向け2冊で、ボトルネックの特定方法やメモリ・GPU最適化などを解説

                                                                Unity Technologiesがゲームの最適化について解説する電子書籍を無料で公開 メモリやGPU管理、ボトルネック特定の方法などを解説したPDF資料 モバイル向けとコンソール/PC向けの2冊があり、各デバイス向け解説も Unity Technologiesは2023年12月6日、Unityにおけるゲームの最適化を解説する2冊の電子書籍を公開しました。 公開されたのは、モバイル向け開発ガイド『OPTIMIZE YOUR MOBILE GAME PERFORMANCE』と、コンソール/PC向け開発ガイド『OPTIMIZE YOUR GAME PERFORMANCE FOR CONSOLES AND PC』です。 各ガイドには、ボトルネックの特定方法やメモリ管理、プログラミングやアセット管理など、さまざまなカテゴリーにおける最適化が解説されています。また、各ガイドそれぞれに、対象デバイス

                                                                  Unity、ゲームの最適化に関する電子書籍を無料公開。「モバイル」「コンソール/PC」向け2冊で、ボトルネックの特定方法やメモリ・GPU最適化などを解説
                                                                • 【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」

                                                                    【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」
                                                                  • Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い - 勝間和代が徹底的にマニアックな話をアップするブログ

                                                                    この記事を書いたところ、たくさんの方から「リモートデスクトップを使えばいいしゃん」とツッコミを受けたので、比較してみました katsumakazuyo.hatenablog.com 結論から言いますと私の14インチのノートパソコンだと画面が、NMKDのGUIの画面が小さすぎてちょっといろいろ工夫が必要でした。デフォルトだと、こんな感じ。 リモートデスクトップの画面が当たり前ですが、通常のノートより一回り小さくて、さらにその内周にNMKDがはいるので、フォントの文字が極小サイズになってしまいます。 デスクトップ側の画面を175%とかにしたら、ギリいける感じでしたので、たぶん、そういった工夫が必要みたいです。 あと、Promptに文字を入れるのも、日本語モードになっていると、キーボード入力受け付けないみたいです。これ、気をつけないと。 あと、超当たり前ですが、できあがったファイルもリモート側に

                                                                      Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い - 勝間和代が徹底的にマニアックな話をアップするブログ
                                                                    • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

                                                                      GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

                                                                        GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
                                                                      • DockerでのディープラーニングGPU学習環境構築方法 - Qiita

                                                                        DockerでGPU学習環境構築 背景 ディープラーニングでローカルPCのGPUを使った学習環境を構築した経験のある人は、一度はNVIDIAのドライバやCUDA周りでハマった経験があるのではないでしょうか?そんなバッドノウハウ(怪文章?)をまとめたQiita記事(TensorFlowでGPU学習させるためにCUDA周りではまったときの対処法)に、なんとNVIDIAの中の人(@ksasaki さん)から「Dockerを使えば…人類は幸せになれる(超意訳)」とのコメントをいただきました! 喜び勇んで、NVIDIAのドライバをアップデートしたところ、そこには文鎮と化した起動しないLinuxマシンが…からあげのNVIDIAとの戦いは始まったばかりだ!(戦ってません) DockerでGPU学習環境構築するメリット うまく構築できればという前提で、以下のようなメリットがあります。 様々なフレームワーク

                                                                          DockerでのディープラーニングGPU学習環境構築方法 - Qiita
                                                                        • クリプト暴落でGPUの叩き売りがはじまった

                                                                          暗号通貨暴落でマイニング撤退が加速。 中国・東南アジアではシステムを解体してグラフィックボードをたたき売りするネカフェが早くも出現しています。 もうクリプトは当分反発しそうにないし、このままじゃ電気代の元がとれない、GPUが値崩れ起こす前に少しでも高く売って回収しないと…という焦燥感に駆られるように、ネットの競売、SNSのライブストリームで売りまくってる姿が確認されています。Baiduなどのフォーラムに出ている写真を見ても、デスクや床の上にむき出しのグラフィックボードが散乱していて、まるで撤兵後の野戦場です。 どれだけの安値で売られているのか?気になる相場はだいたいこんな感じです。 ・ NVIDIA GeForce RTX 3060 Ti :2,699元(約5万5000円) ・ NVIDIA GeForce RTX 3080:たったの1,399元(約2万8500円) や、安い…。安く出品し

                                                                            クリプト暴落でGPUの叩き売りがはじまった
                                                                          • NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に

                                                                              NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に
                                                                            • GPUを使ったノイズキャンセリングがすごかった(5月12日追記)【高橋忍のにゃんともWindows】

                                                                                GPUを使ったノイズキャンセリングがすごかった(5月12日追記)【高橋忍のにゃんともWindows】
                                                                              • 生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた

                                                                                ではそもそも“1bit”とは何が1bitなのか、どうして1bitになるとGPUが不要になるのか。LLMでGPUが不要になるとどんな世界が訪れるのか。オーダーメイドによるAIソリューション「カスタムAI」の開発・提供を行うLaboro.AIの椎橋徹夫CEOに聞いた。 プロフィール:椎橋徹夫 米国州立テキサス大学理学部卒業後、ボストンコンサルティンググループに参画。消費財や流通など多数のプロジェクトに参画した後、社内のデジタル部門の立ち上げに従事。その後、東大発AI系のスタートアップ企業に創業4人目のメンバーとして参画。AI事業部の立ち上げをリード。東京大学工学系研究科松尾豊研究室にて「産学連携の取り組み」「データサイエンス領域の教育」「企業連携の仕組みづくり」に従事。同時に東大発AIスタートアップの創業に参画。2016年にLaboro.AIを創業し、代表取締役CEOに就任。 ──まず、1bi

                                                                                  生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた
                                                                                • Intel、22年ぶりのディスクリートGPU「Iris Xe MAX」を正式発表

                                                                                    Intel、22年ぶりのディスクリートGPU「Iris Xe MAX」を正式発表