YouTubeアップロード用動画をffmpegでエンコードする方法を、公式推奨設定を参考に書き出します。 はじめに 作業環境 YouTube投稿用動画をffmpegでエンコードする 公式推奨の設定を確認する ffmpegでのエンコード方法を確認する ffmpegコマンド例 ffmpegコマンド基本構成 音声あり動画をエンコードする 音声なし動画をエンコードする 連番画像を動画にエンコードする 連番画像から解像度を変更して動画にエンコードする おわりに 参考 はじめに こんにちは、@bioerrorlogです。 最近、ジェネラティブアート作品をYouTubeに投稿し始めました。 しかし、これまではエンコード形式など何も考慮せずに動画をアップロードしていたこともあってか、動きの激しい動画の画質は正直良くありません。 今回は、YouTubeが公式に推奨している設定を参考に、アップロード用動画のf
NVIDIAのGPUのビデオエンコーダNVENCを使ってエンコードをしてみます。CPUを使ったエンコーダに比べ大変高速です。 Windowsを前提に記事を書きますが、ffmpegのオプションの説明になるのでMacやLinuxでも使えます。 NVENCは直に動かすことができません。ビデオ編集ソフトやビデオエンコードソフトにNVENCが組み込まれているものを使います。 ここではffmpegを使って動かします。 ffmpegはコマンドプロンプトで動かします。Window画面はありませんので取っつき難いと思っている方がほとんどでしょう。エンコードには設定するパラメータがたくさんありWindows画面にすべて表示していられません。また、エンコードでは一度設定を決めてしまうと設定を毎回変える必要は無いのでWindow画面とか必要なくなってしまうのです。コマンドプロンプトで動かすのが一番スッキリした方法
Raspberry Pi 3につないだUSBカメラの映像と音声をffmpegを使ってストリーミングしてみます。 映像エンコードはハードウエア支援のh264_omxを使います。 マルチメディアストリーミングの基本となるプロトコル udp, rtpとsapでやってみました。 前回、Raspberry Pi 3のハードウエアエンコーダh264_omxが使えるFFmpegをビルドしました。 Rapberry Pi 3 のハードウエアエンコーダh264_omxが使えるFFmpegをビルドする そしてffmpegでUSBカメラの映像と音声を録音できることも確かめました。 Raspberry Pi 3につないだUSBカメラの映像と音声をFFmpegで録画する 今回はUSBカメラの映像と音声をffmpegでストリーミングしてみます。 ストリーミングといってもいろいろな方法があります。 USBカメラの映像を
先日、Periscope というストリーム配信サービスを使って、Vim Vixen のライブコーディングをしてみました。 配信用の Web カメラがほしかったのですが、あいにく自分は Web カメラを持っていません。 そこで MacBook に内蔵されている Web カメラを、遠隔の Web カメラとして利用できたのでその設定メモです。 全体の構成 以下の構成で配信をしました。 作業用のデスクトップマシン (Linux) は、配信用のマシンも兼ねています。 MacBook からはネットワーク経由でデスクトップマシンに映像を届けます。 デスクトップマシン上では OBS (Open Broadcaster Software) を使って、作業風景と Web カメラの映像を合成して、Periscope に配信します。 MacBook 上の Web カメラの映像は同じネットワーク内にあります。 Ma
フォーマットが yuv420p の映像を使うときに奇数解像度の指定は、奇数は切り捨てられるので入力時点でフォーマットを yuv444p や、rgb24 などのフォーマットに変換する。 ffmpeg -f lavfi -i testsrc2=s=321x241:d=10,format=yuv444p -c:v ffv1 output.mkv ffplay -f lavfi -i testsrc2=s=321x241,format=yuv444p [colorspaces] What are the color characteristics of the FFmpeg test sources? : ffmpeg オプション color, c[color] colorソースの色を指定する。色の名前を直接指定する場合と、[0x|#]RRGGBB[AA] 形式が使える。FFmpeg Utilit
2021-03-05 03:23ズームパンを使用して、1つの画像で5秒のビデオを「ズームイン」効果にする方法を知っています。 ffmpeg -loop 1 -i image1.jpg -vf "zoompan=z='min(zoom+0.0015,1.5)':d=125" -c:v libx264 -t 5 -s "800x450" zoomin.mp4 「ズームアウト」ビデオを作成するにはどうすればよいですか? 以下を試しましたが、どれも機能していません。 ffmpeg -loop 1 -i image1.jpg -vf "zoompan=z='min(zoom-0.0015,1.5)':d=125" -c:v libx264 -t 5 -s "800x450" zoomout.mp4 ffmpeg -loop 1 -i image1.jpg -vf "zoompan=z='max(1.
拡大/縮小時のサイズ指定 FFmpegで映像のエンコードを行う際、サイズを拡大もしくは縮小したい場合には-sオプションを用い、後ろにピクセル単位で「[幅]x[高さ]」を指定する。 $ ffmpeg -i [入力ファイル] -s [幅]x[高さ] (オプション...) [出力ファイル] 拡大/縮小の補間方式などの指定 拡大/縮小の処理はFFmpeg付属のlibswscaleというライブラリを用いて行われ、幾つかのパラメータ指定によりその挙動を調整することができる。ffmpegコマンドからは-sws_flags [フラグ文字列]の形で指定することになる。 例えば、拡大/縮小の補間方式はlibswscaleが提供する幾つかの方式の中から選択可能で、bilinear,lanczos,splineなどの値が指定できる。lanczosやsplineは高品質だがファイルサイズはbilinearやbicu
ffmpeg.wasmffmpeg.wasm is a pure WebAssembly / JavaScript port of FFmpeg enabling video & audio record, convert and stream right inside browsers! Data Securityffmpeg.wasm runs only inside your browser, data security is gaurantee as no data is sent to remote server. Powered by WebAssemblyffmpeg.wasm transpiles ffmpeg source code to WebAssembly code using Emscripten to achieve optimal performance.
HLS(m3u8+ts)形式の動画をffmpegというソフトを使用してmp4形式の動画に一発変換する方法を紹介します。これでらくらく再生可能です。 HLS(m3u8)とは HLSとは HLSとはHTTP Live Streamingの略で、Appleによって開発された動画配信技術です。 今回中身については本題ではないので記述しません。 m3u8とは HLSを使用した配信では、インデックスファイルと分割された動画ファイルにより構成されています。 m3u8はインデックスファイルのことです。もともとM3U はマルチメディアプレイリストのファイルフォーマットで、M3U8はUTF-8で書かれたM3Uファイルということを表しています。 FFmpegをインストールする 動作確認環境:Windows7 64bit OSや動作環境の違いで多少異なることが有ります。 ダウンロード FFmpegを公式ページから
更新:2020-03-21 [追記 2018/05/07] 記憶をもとに後から書いたため間違いがありました。AvidemuxのTS Muxerは.m2tsではなく.tsのみの対応でした。そのため、実際はAvidemuxでキーフレームの時間を確認し、分割/結合はffmpegで行なっていました。ffmpegでの分割は、以下のコマンドで行えます。 ffmpeg -ss 01:43.870 -i in.m2ts -ss 0 -t 03:12.325 -c copy -map 0 out.m2ts -ss 01:43.870は開始時間です。-ss 0は付けておいた方がいいみたい。-t 03:12.325は動画の長さです。したがって、終了時間 - 開始時間を計算する必要があります。他の出力形式ならAvidemuxも有用ですので、原文はそのまま残しておきます。 [追記 2018/06/25] 切り出され
ffmpeg -i 変換前ファイル -vf crop= 出力動画の幅 : 出力動画の高さ : 元動画の左上をゼロとして X 軸の距離 : 元動画の左上をゼロとして Y 軸の距離
一定量のズレならば補正するツールは沢山あるが、 累積的で順次増大するズレを一発で補正するものはない --少なくと私はも知らない。 そこで、以下のような面倒な手続きで補正することになる。 ①動画ファイルから映像と音声を別々に取り出す。 ②両者の長さを比較し、音声の再生速度を映像に合わせて調整する。 ③両者を1本のファイルに再結合する。 ffmpeg 汎用動画変換ツール(フリー)/ Audacity サウンド編集ツール(フリー) ●補正の具体例 ①inp.mp4から映像と音声を別々に取り出す 入手した動画ファイルをinp.mp4とすると、 以下の要領で映像v.mp4と音声a.aacに分離できる。 ffmpeg -i inp.mp4 -vcodec copy -an v.mp4 ffmpeg -i inp.mp4 -acodec copy a.aac なお、変換が終了すると、ファイルの長さ(時間
動画や音声、画像ファイルを調べるのに ffmpeg で表示される以上のことを調べるときに使う ffprobe の使い方。ログのフォーマット指定ができるので json、xml、iniからパースすれば正規表現で無理に取る必要はない。 ffprobe では-vf、-af、-filter_complexなどが使えないので lavfi デバイスで読み込み、そこからフィルタを使う。よって映像は rawvideo、音声は pcm_f32le になり元データとは異なるのに注意。デコーダの指定もできないので一部のピクセルフォーマット、具体的には VP9 の YUVA420 をデコードできない。 VP9(libvpx-vp9)のエンコード設定について | アルファチャンネル付き動画を読み込む ffmpeg 5.0からcsv出力が直った。 ffprobe: add missing separator when
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く