並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 17 件 / 17件

新着順 人気順

ディープラーニングの検索結果1 - 17 件 / 17件

  • 画像生成AIに照明革命 日本と世界で同時に“神ツール”登場 (1/3)

    この連載ではおなじみのキャラクター「明日来子さん」に右側からライトを当ててみた。左がIC-Lightを適用したもので、右がオリジナル。環境はWebUI Forge用の拡張機能を使用 5月8日に、「ControlNet」など画像生成AI関連の著名研究者であるイリヤスフィール(lllyasviel)さんが発表した「ICライト(Imposing Consistent Light、印象的な一貫的なライト)」が盛り上がりました。入力した画像をもとに、後から指定した照明効果を踏まえた画像を生成する技術です。 画像生成AIで照明効果がつけられる「ICライト(IC-Light)」 発表された学習済みモデルは、「ライトを指定すると、キャラクターのデータに合わせてテキストのプロンプトに合わせて独自に背景を生成するもの」「キャラクターとライトの影響を加味して、別の背景画像と合成するもの」の2種類があります。これ

      画像生成AIに照明革命 日本と世界で同時に“神ツール”登場 (1/3)
    • 【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境

      はじめに WSL2(Windows Subsystem for Linux 2)は、Microsoft Windows上でLinuxカーネルを直接実行できるようにする機能です。 この記事ではWSL2環境にDockerを導入しGPUを用いた機械学習環境を構築する手順を紹介します。 構築イメージは以下の図の通りです。NvidiaGPUを搭載したマシンにWSL2環境を構築します。Dockerを用いてコンテナを用意し、CUDAは各コンテナ内のCUDA Toolkitを用いて利用します。 今回開発するPCのスペックは以下の通りです。 Windows 11 Windows version: 22H2 GPU:NVIDIA Geforce RTX 3060 12GB 設定 1. WSL2を有効化 デフォルトではWSL2環境が無効化されている可能性があるので、始めに有効化しておきましょう。 「コントロール

        【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境
      • 自分がどれくらいニューラルネットワークを理解しているかを確かめられるゲーム「Graph Game」

        「Graph Game」はニューラルネットワークの構造をグラフで作成するゲームです。AI技術の発展と共に頻繁に目にするようになった「ニューラルネットワーク」をどの程度理解しているか試せるゲームとのことなので、実際にプレイしてみました。 Graph Game - By Sabrina Ramonov https://graphgame.sabrina.dev/ サイトにアクセスするとこんな感じ。「RNN」「LSTM Cell」「GRU Cell」「ResNet Block」「Deep RNN」という5つのステージが用意されています。まずは「RNN」をクリックしてみます。 「x_t」「h_t」「y_t」という3つの箱が出現しました。それぞれの箱はデータを表しており、上が出力で下が入力となっています。「x_t」の上の○をクリックし、ドラッグして「h_t」の下に接続します。 緑の線で接続が表示され

          自分がどれくらいニューラルネットワークを理解しているかを確かめられるゲーム「Graph Game」
        • グーグルのAI祭り「Google I/O 2024」基調講演を総まとめ

            グーグルのAI祭り「Google I/O 2024」基調講演を総まとめ
          • “ラズパイ5”にNPU追加できる「Raspberry Pi AI Kit」 最大13TOPSの推論性能 日本では近日販売へ

            関連記事 「Raspberry Pi 5」発表 拡張性や処理速度が向上 国内の販売時期は未定 英Raspberry Pi財団は、小型コンピュータ「Raspberry Pi 5」シリーズを発表した。英国では10月から販売予定だが、日本国内での販売時期は不明。 AI処理に適した「Copilot+ PC」、各メーカーが続々発表 ラインアップ一覧 米Microsoftは、AIアシスタント「Copilot」などAIの実行に適したWindows PCカテゴリー「Copilot+ PC」を発表した。各メーカーが6月18日以降に発売するSnapdragon搭載のCopilot+PCを紹介する。 AI対応“Copilot+ PC”でArm搭載の新「Surface Pro/Laptop」 「M3 MacBook Airより高速」とうたう性能と価格は? 要点まとめ 米Microsoftが発表した、新しい「Sur

              “ラズパイ5”にNPU追加できる「Raspberry Pi AI Kit」 最大13TOPSの推論性能 日本では近日販売へ 
            • AIの仕組みであるLLMの「ブラックボックス」の内部を見てどのニューラルネットワークが特定の概念を呼び起こすかを知る試みをAnthropicが解説

              チャットAI「Claude」などを開発するAI企業「Anthropic」がAIモデルの内部動作について、何百万もの概念がどのように表現されているかという研究結果を報告しました。 Mapping the Mind of a Large Language Model \ Anthropic https://www.anthropic.com/research/mapping-mind-language-model AIモデルの本体である大規模言語モデル(LLM)の出力はブラックボックスとして扱われており、入力に対応して出力が行われた時になぜその特定の応答が出力されたのかは不明となっています。そのため、モデルが有害・偏見・ウソなどの危険な出力をしないことを信頼するのは難しいものです。 Anthropicは以前よりLLMの内部についての研究を行っており、2023年10月には「特徴」単位でまとめるこ

                AIの仕組みであるLLMの「ブラックボックス」の内部を見てどのニューラルネットワークが特定の概念を呼び起こすかを知る試みをAnthropicが解説
              • 第288回 人工知能時代には必須か? 最近、プロセッサに搭載されている「NPU」って何

                最近、プロセッサに「NPU」と呼ばれる人工知能(AI)処理に特化したユニットが搭載されるのがちょっとしたブーム(?)になっている。このNPUって、GPUなどと何が違うのか、なぜプロセッサに搭載されるようになってきたのか解説しよう。 プロセッサに搭載されている「NPU」って何? Intelの最新プロセッサ「Core Ultra」には、人工知能(AI)処理に特化した「NPU」が搭載されている。NPUは、スマートフォン向けのプロセッサにも搭載が進んでいる。ところで、このNPUはCPUやGPUと何が違うのだろうか? 写真は、Intelのプレスリリース「AI PCの新時代の到来を告げるインテル Core Ultra プロセッサー」のCore Ultraプロセッサーの写真を使って、「CPU」「GPU」「NPU」の文字を載せたもの。 今回のお題は「NPU」である。出だしから注釈になってしまうが、NPUと

                  第288回 人工知能時代には必須か? 最近、プロセッサに搭載されている「NPU」って何
                • ⾃⼰教師あり学習によるビジョン基盤モデルの事前学習

                  ロボット工学セミナー:「ロボットのためのLLM・VLM 利活用」 2024年5月23日 ⾃⼰教師あり学習は,ラベルなしデータを⽤いた事前学習法である.⾃⼰教師あり学習では,データから正解ラベルを⾃動で作成できるプレテキストタスクにより事前学習を⾏い,様々な下流タスクに効果的な特徴表現を獲得する.対照学習に基づく⼿法が教師あり事前学習法と同程度以上の学習効果が⽰されて以降,対照学習の派⽣⼿法が数多く提案された.また,Vision Transformer (ViT) の台頭以降は,ViT の構造に合わせた⽅法として Masked Image Modeling が提案され,現在に⾄るまで盛んに研究が⾏われている.本チュートリアルではまず⾃⼰教師あり学習の概要と代表的な評価⽅法について紹介し,対照学習と Masked Image Modeling ⼿法について解説する.

                    ⾃⼰教師あり学習によるビジョン基盤モデルの事前学習
                  • プリファードネットワークス、AI半導体でNVIDIA追う 省エネに勝機 - 日本経済新聞

                    「実装段階ではサーバーはどんな仕組みになるのか」「価格はどのくらいか」──。2月下旬、人工知能(AI)開発を手掛けるプリファードネットワークス(PFN、東京・千代田)が開いた、AIのディープラーニング(深層学習)向け独自半導体チップ「MN-Core」についての勉強会の一幕。通信会社やデータセンター関連企業の社員らから熱心な質問が飛んだ。日の丸半導体復活への期待が高まる中、日本で有望なスタートア

                      プリファードネットワークス、AI半導体でNVIDIA追う 省エネに勝機 - 日本経済新聞
                    • tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!

                      tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!:TensorFlow 2+Keras(tf.keras)入門 TensorFlow+Kerasの最新情報として、Keras 3.0のリリースに伴い、TensorFlowから独立し、TensorFlow 2.16以降でKeras 3がデフォルトとなったことについて紹介します。また、Keras 3(TensorFlowバックエンド)での書き方や、今後のディープラーニングライブラリの選び方についても私見を示します。 連載目次 もう4年も前になりますが、2020年5月に「マルチバックエンドKerasの終焉(しゅうえん)、tf.kerasに一本化」という記事を書きました。しかしその後、逆の動きが起きています。本稿では、前回の記事をフォローアップする目的も兼ねて、最新の状況をお伝えします。 そもそもKer

                        tf.kerasが終了 Keras 3がTensorFlowから独立し、マルチバックエンド復活!
                      • Hugging FaceのZeroGPUでAIのデモを作る方法: 初級編 - Qiita

                        はじめに この記事ではHugging Faceという🤗なサイトでAIのデモを作ってみることを説明します。 ただし、この記事に書いてある方法でデモを作ったとして、そのデモにより起きることに責任は持てません。あらかじめご了承ください。 Hugging FaceのZeroGPUとは ZeroGPU とは、デモの利用者が使う瞬間だけ高性能なGPUが借りられるというサービスです。現在はA100 40GBが一瞬借りられます。これを実現できているのは世界でHugging Faceだけでしょう。お値段は月額9ドル(約1500円)です。もし、ZeroGPUがなかったら、私は計算上40万円以上月に払っていることになります。それぐらいコスパの良い実験的サービスです。ぜひ使いましょう。 (ZeroGPUのページより引用) ZeroGPUの事前準備 まず、適当なクレジットカードを用意してください。次に、Huggi

                          Hugging FaceのZeroGPUでAIのデモを作る方法: 初級編 - Qiita
                        • AIアプリ活用のカギはCPU、GPU、NPUそれぞれへの最適化 ~なぜ今がAI PC向けアプリ開発スタートアップに好機なのか[Sponsored]

                            AIアプリ活用のカギはCPU、GPU、NPUそれぞれへの最適化 ~なぜ今がAI PC向けアプリ開発スタートアップに好機なのか[Sponsored]
                          • Graph Game - By Sabrina Ramonov

                            • GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

                              この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 日本語版Twitter https://twitter.com/3B1BJP 元チャンネル(英語) https://www.youtube.com/c/3blue1brown 元動画(英語) https://www.youtube.com/watch?v=eMlx5fFNoYc&t=795s&pp=ygUVYXR0ZW50aW9uIDNibHVlMWJyb3du 新チャンネルUfolium https://www.youtube.com/watch?v=nF7gFRebGTk&pp=ygUHdWZvbGl1bQ%3D%3D https://www.youtube.com/watch?v=wrNCjIjIzuk&p

                                GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
                              • Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations?

                                When large language models are aligned via supervised fine-tuning, they may encounter new factual information that was not acquired through pre-training. It is often conjectured that this can teach the model the behavior of hallucinating factually incorrect responses, as the model is trained to generate facts that are not grounded in its pre-existing knowledge. In this work, we study the impact of

                                • Daisuke Okanohara / 岡野原 大輔 on X: "LLMに新しい知識をファインチューニングを用いて導入しようとすると、事前学習時に得た知識もハルシネーションするようになり性能が悪化する。事前学習時に知らない知識を獲得するのに時間がかかり複数回参照すると過学習するため。事前学習時に学んだが、使えていない知識をファインチューニングで引"

                                  • YOLOv8モデルで物体検出する際の前処理・後処理を解説してみる - Qiita

                                    はじめに 本記事では、YOLOv8モデルを使用して推論を行う際の前処理と後処理の手順について詳しく解説します。 特に、ポーズ推定タスクにおける顔認識を例に、一般的な処理方法を紹介します。後処理のkps(キーポイント)に関する部分以外は他のタスクにも応用できます。 コードはgithubで公開しているので、チェックしてみてください。 基本的な流れ 前処理 推論 後処理 モデルの準備 ultralyticsライブラリでは、pytorch形式のモデルを様々なフォーマットにエクスポートする機能があります。 以下のコードを実行することで、モデルをエクスポートします。 from ultralytics import YOLO model = YOLO('../models/yolov8n-face.pt') model.export(format='onnx', imgsz=640, opset=12,

                                      YOLOv8モデルで物体検出する際の前処理・後処理を解説してみる - Qiita
                                    1