FFmpeg Principle学习new_video_stream添加视频输出流

目录
  • new_video_stream() 函数流程
  • 流程图
  • 原因解析
    • 滤镜出口里面获取宽高

new_video_stream() 函数流程

new_video_stream() 函数的流程相对来说比较简单,主要的逻辑如下:

1, 调 new_output_stream() 函数来创建 OutputStream 输出流,以及 AVCodecContext 编码器上下文。

new_output_stream() 是一个公共函数,创建 音频流,数据流,字幕流都用了它。

new_output_stream() 会把命令行的一些公共参数赋值给 OutputStream 跟 AVCodecContext

这些公共参数是指音频,视频,字幕都可能会有的参数。因为 new_output_stream() 是一个公共函数。

2, 调 MATCH_PER_STREAM_OPT() 宏函数,把 OptionsContext 里面视频相关的参数,赋值给 给 OutputStream 跟 AVCodecContext

流程图

可以看到,实际上就两步,new_video_stream() 肯定会创建视频的输出流,还有视频的编码器实例。

公共参数,就在 new_output_stream() 函数 里面赋值了。

视频相关的参数,就在 new_video_stream() 函数再赋值。

new_video_stream() 跟 new_output_stream() 函数都调用了多次 MATCH_PER_STREAM_OPT() 宏函数来提取 OptionsContext 的内容,

MATCH_PER_STREAM_OPT() 其实是 MATCH_PER_TYPE_OPT() 的兄弟函数

#define MATCH_PER_TYPE_OPT(name, type, outvar, fmtctx, mediatype)\
{\
    int i;\
    for (i = 0; i < o->nb_ ## name; i++) {\
        char *spec = o->name[i].specifier;\
        if (!strcmp(spec, mediatype))\
            outvar = o->name[i].u.type;\
    }\
}
#define MATCH_PER_STREAM_OPT(name, type, outvar, fmtctx, st)\
{\
    int i, ret, matches = 0;\
    SpecifierOpt *so;\
    for (i = 0; i < o->nb_ ## name; i++) {\
        char *spec = o->name[i].specifier;\
        if ((ret = check_stream_specifier(fmtctx, st, spec)) > 0) {\
            outvar = o->name[i].u.type;\
            so = &o->name[i];\
            matches++;\
        } else if (ret < 0)\
            exit_program(1);\
    }\
    if (matches > 1)\
       WARN_MULTIPLE_OPT_USAGE(name, type, so, st);\
}

这两个函数,只有最后一个参数,第四个参数是不一样的。

mediatype 通常是 a 或者 v,也就是根据 a 还是 v 字符来提取 OptionsContext 里面音频或者视频的选项。

st 是 AVStream,所以如果 AVStream 是音频,就提取 OptionsContext 里面的音频选项,如果是视频就提取视频。

这两个函数的宏实现看起来有点复杂,但他们的区别就是这么一点区别。

至此,new_video_stream() 函数分析完毕。new_audio_stream() 跟 new_video_stream() 类似,里面都调了 new_output_stream() 。

new_audio_stream() 主要是提取OptionsContext 里面音频选项,对 OutputStream 输出流,以及 AVCodecContext 编码器 进行赋值操作。

补充一点:虽然 new_video_stream() 里创建了 编码器实例,但是还没真正打开编码器的。打开编码器,需要等到解码出第一帧 AVFrame。才会打开编码器。

原因解析

因为 ffmpeg.exe 的逻辑,是只有在解码出第一帧AVFrame的时候,才去用 avfilter_graph_config() 打开 FilterGragh ,这样才能从出口滤镜读取到 输出的宽高是多少。

ffmpeg.exe 比较谨慎,他可能不太相信容器层记录的宽度,也有可能有些容器根本没记录宽高,所以他必须等到解码出 AVFrame,才能确定输入的宽高,确定了输入的宽高,才能创建 buffer入口滤镜,创建了入口滤镜,才能打开 FilterGragh 。

TODO:这个逻辑非常重要,在本章结尾的时候再重复讲一次。

滤镜出口里面获取宽高

最后是在 init_output_stream_encode() 里面,从滤镜出口里面获取的宽高,如下:

enc_ctx->width  = av_buffersink_get_w(ost->filter->filter);
enc_ctx->height = av_buffersink_get_h(ost->filter->filter);
enc_ctx->sample_aspect_ratio = ost->st->sample_aspect_ratio

最后,推荐一下 clion 的 Call Hierarchy 功能,可以看到函数的调用流程,如下:

大部分的 集成开发环境都有这个功能,你只需用 “工具名称” + Call Hierarchy 关键词,即可搜索到相关教程。

以上就是FFmpeg Principle学习new_video_stream添加视频输出流的详细内容,更多关于FFmpeg Principle new_video_stream的资料请关注我们其它相关文章!

(0)

相关推荐

  • ffmpeg网页视频流m3u8 ts实现视频下载

    目录 引言 下载视频所有的ts切片文件 引言 现在很多视频网站播放流视频,都不是采用mp4/flv文件直接播放,而是采用m3u8/ts这种方式播放. 简单说就是,网站后台把视频切片成成百上千个xx.ts文件,一般10秒一个,每个都几百kb很小.然后通过xx.m3u8播放列表把这些文件连接起来. 通过Chrome DevTool的Network栏,我们可以清楚的看到加载过程: 我们直接点击这个playlist.m3u8播放列表文件,在旁边的preview栏中查看内容,可以看到: #EXTM3U #

  • Android视频加水印之FFmpeg的简单应用实例

    视频处理是Android开发中常见的需求.像是视频加水印,视频格式转换,视频截图等等…… FFmpeg是处理视频时常用到的工具,一般情况可以用FFmpeg源码自己编译,也可以使用网上别人编译好的包,这里我使用的是后一种方案. 我使用的是在GitHub找的.当然其他FFmpeg编译出来的包都是可以的. 用FFmepg处理视频或者音频思路是: 加载FFmpeg环境 编写FFmpeg的处理命令 运行处理命令 等待结果返回 一.首先,引入依赖 compile 'com.writingminds:FFmp

  • Android FFmpeg音视频解码播放示例详解

    目录 前言 一丶FFmpeg简介 1.简介 2.FFmpeg两个强大功能 2.1 命令功能 常用参数说明: 二丶FFmpeg音视频解码播放 前言 1.FFmpeg 音视频解码流程 2.FFmpeg 音视频解码原理 2.1.解协议 2.2.解封装 2.3.解码 2.4.音视频同步 2.5.FFmpeg音视频解码 3.FFmpeg接口使用 三丶Clang编译FFmpeg常见问题 1.命令找不到 2.xmakefile 文件没有生成 3.arm-linxu-androideabi-gcc is una

  • 音视频基本概念和FFmpeg的简单入门教程详解

    目录 写在前面 基本概念 容器/文件(Conainer/File): 媒体流(Stream): 数据帧/数据包(Frame/Packet): 编解码器(Codec): 复用(mux): 解复用(mux): 帧率(Frame rate): 码率(Bit Rate): FFmpeg 第一条FFmpeg命令 FFmpeg命令处理流程 FFmpeg常用命令 总结 [参考] 写在前面 最近正好有音视频编辑的需求,虽然之前粗略的了解过FFmpeg不过肯定是不够用的,借此重新学习下: 基本概念 ffmpeg概

  • Android接入ffmpeg库及问题解决方法

    目录 一.准备交叉编译环境 二.交叉编译ffmpeg+libx264+libfdk-aac 1. 交叉编译libfdk-aac 2. 交叉编译libx264 3. 交叉编译ffmpeg 一.准备交叉编译环境 我的环境如下: 系统:ubuntu20.04 NDK版本:r17c NDK构建交叉工具链的方法参考:https://developer.android.com/ndk/guides/standalone_toolchain?hl=zh-cn NDK r17c下载链接:https://deve

  • FFmpeg Principle学习new_video_stream添加视频输出流

    目录 new_video_stream() 函数流程 流程图 原因解析 滤镜出口里面获取宽高 new_video_stream() 函数流程 new_video_stream() 函数的流程相对来说比较简单,主要的逻辑如下: 1, 调 new_output_stream() 函数来创建 OutputStream 输出流,以及 AVCodecContext 编码器上下文. new_output_stream() 是一个公共函数,创建 音频流,数据流,字幕流都用了它. new_output_stre

  • FFmpeg Principle分析Out put File 数据结构

    目录 struct OutputFile struct OutputFile 字段解析 struct OutputFile struct OutputFile 是单个输出文件的管理器.之前在 parse_optgroup() 处理好的 OptionsContext o 变量,有一部分字段会赋值给 OutputFile 管理器 如下: OptionsContext o 变量的另一部分字段,会在 open_output_file() 里面传递给 API 函数,例如:avformat_write_he

  • go后端利用ffmpeg转hls做简单视频直播

    目录 1. 前言 2. wsl安装ffmpeg并转换rtsp为hls 3. 前后端示例代码 3.1 后端go代码 3.2 前端代码 4. 结果及评估 1. 前言 上一次我们找到一些开源方案,目前我们先测试一下ffmpeg转hls播放的方式,看下延迟情况及兼容性情况,主要测试Windows.Linux和macOS中使用谷歌浏览器播放的情况.后端结合我们之前的cgo部分,建立一个简单的http服务器,然后提供给前端调用. 2. wsl安装ffmpeg并转换rtsp为hls sudo apt-get

  • python调用ffmpeg命令行工具便捷操作视频示例实现过程

    目录 最重要的事 裁剪视频 计算分段 获取视频长度 分段 获取文件 代码集成 总结 参考资料 文 | 李晓飞 来源:Python 技术「ID: pythonall」 最近有了一个新任务,需要将赛事视频,拆分成两分钟以内的小段,用于发布到短视频平台上. 本以为是个一次性的工作,结果赛事视频数据巨大,视频文件长短不一,完全没法手工处理,于是 Python 又一次拯救了我. 还等什么,开始干吧! 最重要的事 无论做什么事情,都要去分析一下最重要的是什么,然后集中精力攻克,再继续找最重要的事. 对我们这

  • 利用ffmpeg命令行转压视频示例代码

    在开始本文的正文之前,首先得安装好ffmpeg程序(Linux下还得安装x264编码).Mac下直接用brew安装: brew install ffmpeg --with-faac --with-fdk-aac --with-ffplay --with-fontconfig --with-freetype --with-libass --with-libbluray --with-libcaca --with-libsoxr --with-libquvi --with-frei0r --with

  • Centos7学习之添加用户和用户组的方法

    在使用 Centos 之前用的更多是Ubuntu,所以在 useradd 和 adduser 两条命令出现歧义,在Ubuntu系统上这是两条命令,而在Centos上则是同一条命令,adduser 是链接的形式存在 # ll /usr/sbin/ | grep user lrwxrwxrwx. 1 root root 7 10月 30 17:09 adduser -> useradd -rwxr-x---. 1 root root 114064 6月 10 09:16 useradd 1.添加用户

  • 向大师们学习Javascript(视频与PPT)

    Douglas Crockford:Douglas Crockford是JavaScript开发社区最知名的权威,是JSON.JSLint.JSMin和ADSafe之父,是<JavaScript:The Good Parts>(英文版.中文版)的作者.JavaScript的发明人Brendan Eich说他是"Yoda of lambda programming and JavaScript(lambda编程和JavaScript的精神领袖)".他同时也服务于ECMA的Ja

  • Python学习笔记之视频人脸检测识别实例教程

    前言 上一篇博文与大家分享了简单的图片人脸识别技术,其实在实际应用中,很多是通过视频流的方式进行识别,比如人脸识别通道门禁考勤系统.人脸动态跟踪识别系统等等. 下面话不多说了,来一起看看详细的介绍吧 案例 这里我们还是使用 opencv 中自带了 haar人脸特征分类器,通过读取一段视频来识别其中的人脸. 代码实现: # -*- coding: utf-8 -*- __author__ = "小柒" __blog__ = "https://blog.52itstyle.vip

  • ORACLE学习笔记-添加更新数据函数篇

    一.添加数据 /*添加数据*/ insert into STU values('stu0004','赵一',18,1,"kc0004"); insert into STU(STU_ID,STU_NAME,STU_AGE,STU_SET ) values('stu0013','储十一',19,1); 说明:如果不指定将数据添加到那个字段,那么此时必须列出全部数据,如果列出字段,则一一对应,必须列出约束不为空的所有字段,否则报错. 二.更新数据 /*更新数据*/ update STU SE

  • Java使用FFmpeg处理视频文件的方法教程

    前言 本文主要讲述如何使用Java + FFmpeg实现对视频文件的信息提取.码率压缩.分辨率转换等功能: 之前在网上浏览了一大圈Java使用FFmpeg处理音视频的文章,大多都讲的比较简单,楼主在实操过程中踩了很多坑也填了很多坑,希望这份详细的踩坑&填坑指南能帮助到大家: 1. 什么是FFmpeg 点我了解 2. 开发前准备 在使用Java调用FFmpeg处理音视频之前,需要先安装FFmpeg,安装方法分为两种: 引入封装了FFmpeg的开源框架 在系统中手动安装FFmpeg 2.1 引入封装

随机推荐