百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

FFMPEG小白-day04

csdh11 2025-04-23 23:18 18 浏览

首先,向雷霄骅,雷神致敬

covor

昨天插了一条html的东西,今天补档ffmpeg的编程,通过ffmpeg编写一个最简单的程序,今天的程序主要的功能是

打印视频文件的相关信息

输出H.264文件

输出YUV文件

不过在编程之前,再来将前天的ffmpeg结构体框架图拿出来

FFMPEG解码的结构.png

ok这张图能够对下面的编程有所帮助,你可以根据这张图去知道哪个结构体或者数组是属于那个大的结构体的。

再来介绍下该结构体中的一些重要的信息

AVStream(在AVFormatContext结构体下方)

* id:序号
* codec:该流对应的AVCodecContext* time_base:该流的时基(用来为视频或者音频设定播放位置的)
* r_frame_rate:该流的帧率(一秒钟有多少个画面)

AVCodecContext(编解码器的一些信息)

* codec:编解码器的AVCodec* width,height:图像的宽高(只针对视频)
* pix_fmt:像素格式(只针对视频)
* sample_rate:采样率(只针对音频)
* channels:声道数(只针对音频)
* sample_fmt:采样格式(只针对音频)

AVCodec

* name:编解码器名称
* long_name:编解码器长名称
* type:编解码器类型(音频或者视频)
* id:编解码器ID
* 一些编解码的接口函数

AVPacket(可以理解成装H.264的结构体)

* pts:显示时间戳(即视频应该几分,几秒的时候显示到界面上,他的单位是整数的,将来会和上文中的时基进行换算,换算成为我们常用的时分秒这样的单位)
* dts:解码时间戳
注意:视频的码流存储的次序和播放视频的次序并不是顺序的,所以有两个时间戳,即一个显示的一个解码的。
* data:压缩编码数据(h.264数据)
* size:压缩编码数据大小
* stream_index:所属的AVStream(标识是属于视频流还是音频流)

AVFrame(可以理解成装YUV的结构体)

* data:解码后的图像像素数据(音频采样数据即yuv数据)
* linesize:对视频来说是图像中的一行像素的大小;而对于音频来说是整个音频帧的大小
* width,height:图像的宽高(只针对视频)
* key_frame:是否为关键帧(只针对视频,红颜色的帧是关键帧)
* pict_type:帧类型(只针对视频)。例如I,P,B。

下文中要用到的小知识:解码后的数据需要经过sws_scale()函数处理

解码后yuv格式的视频像素数据保存在AVFrame的data[0]、data[1]、data[2]中。
但是这些像素值并不是连续存储的,每行有效像素之后存储了一些无效像素,以
高度Y数据为例,data[0]中一共包含了linesize[0]*height个数据。但是出于优化等方面
的考虑,linesize[0]实际上并不等于宽度width,而是一个比宽度大一些的值。因此需要
使用ses_scale()进行转换。转换后去除了无效数据,width和linesize[0]就取值相同了。
最后用大白话概括一下吧,就是说如果不用这个sws_scale()函数的话,直接播放的yuv数据是
带有黑边的,只有经过sws_scale()函数裁剪完了之后,才能正常的播放视频。

该函数效果如下图

经过sws_scale()函数处理过程.png

ok,先把大体的代码 up 上来,我这里做了必要的注释,应该都能看懂,看不懂的话可以留言联系我

 // simple_sdl2_player.cpp : 定义控制台应用程序的入口点。

//

include "stdio.h"

define __STDC_CONSTANT_MACROS

include "stdafx.h"

//引入ffmpeg中的相关头文件

extern "C" {

include "libavcodec\avcodec.h"

include "libavformat/avformat.h"

include "libswscale/swscale.h"

}

int main(int argc, char* argv[])

{

//声明了AVFormatContext视频数据指针

AVFormatContext *pFormatCtx;

//声明变量i和视频的位置索引

int i, videoindex;

//解码器信息指针

AVCodecContext *pCodecCtx;

//解码器指针

AVCodec *pCodec;

//像素数据指针

AVFrame *pFrame, *pFrameYUV;

//可以理解成缓冲数组

uint8_t *out_buffer;

//h.264数据指针

AVPacket *packet;

int y_size;

int ret, got_picture;

struct SwsContext *img_convert_ctx;

//输入文件路径

char filepath[] = "Titanic.ts";

int frame_cnt;//注册所有相关组件av_register_all();//初始化网络avformat_network_init();//分配空间pFormatCtx = avformat_alloc_context();//打开视频流//如果没有找到avformat_open_input()方法如果返回0表示获取成功,反之则失败if (avformat_open_input(&pFormatCtx, filepath, NULL, NULL) != 0) {
 printf("Couldn't open input stream.\n"); return -1;
}//获取视频流信息 如果avformat_find_stream_info()结果大于等于0表示获取流成功if (avformat_find_stream_info(pFormatCtx, NULL)<0) {
 printf("Couldn't find stream information.\n"); return -1;
}//ok 打开了视频并且获取了视频流 ,设置视频索引值默认值videoindex = -1;//循环遍历输入视频的av_Stream个数,依次判断av_Stream中的codec_type类型,如果是视频类型,进行记录,一般来说,这个值一般为0for (i = 0; i<pFormatCtx->nb_streams; i++) if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO) {
 videoindex = i; break;
 }//如果没有找到视频的索引,说明并不是一个视频文件if (videoindex == -1) {
 printf("Didn't find a video stream.\n"); return -1;
}//取得视频的解码器信息pCodecCtx = pFormatCtx->streams[videoindex]->codec;//得到的解码器pCodec = avcodec_find_decoder(pCodecCtx->codec_id);//解码器未找到if (pCodec == NULL) {
 printf("Codec not found.\n"); return -1;
}//解码器和解码器信息的话,开始解码,如果返回值为0,说明无法开始解码if (avcodec_open2(pCodecCtx, pCodec, NULL)<0) {
 printf("Could not open codec.\n"); return -1;
}/*
* 在此处添加输出视频信息的代码
* 取自于pFormatCtx,使用fprintf()
*///初始化yuv容器,并且初始化内存空间pFrame = av_frame_alloc();
pFrameYUV = av_frame_alloc();
out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));//设置图像内容avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);//初始化h.264容器packet = (AVPacket *)av_malloc(sizeof(AVPacket));//Output Info-----------------------------printf("--------------- File Information ----------------\n");
av_dump_format(pFormatCtx, 0, filepath, 0);
printf("-------------------------------------------------\n");//上文说的对图形进行宽度上方的裁剪,以便于显示的更好img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,
 pCodecCtx->width, pCodecCtx->height, PIX_FMT_YUV420P, SWS_BICUBIC, NULL, NULL, NULL);
frame_cnt = 0;//如果读流成功while (av_read_frame(pFormatCtx, packet) >= 0) { if (packet->stream_index == videoindex) { /*
 * 在此处添加输出H264码流的代码
 * 取自于packet,使用fwrite()
 */
 ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet); if (ret < 0) {
 printf("Decode Error.\n"); return -1;
 } if (got_picture) { //上文说的对图形进行宽度上方的裁剪,以便于显示的更好
 sws_scale(img_convert_ctx, (const uint8_t* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
 pFrameYUV->data, pFrameYUV->linesize);
 printf("Decoded frame index: %d\n", frame_cnt); /*
 * 在此处添加输出YUV的代码
 * 取自于pFrameYUV,使用fwrite()
 */
 //计数
 frame_cnt++;
 }
 } //释放packet
 av_free_packet(packet);
}//释放相关资源sws_freeContext(img_convert_ctx);
av_frame_free(&pFrameYUV);
av_frame_free(&pFrame);
avcodec_close(pCodecCtx);
avformat_close_input(&pFormatCtx);return 0;

}

ok,注释都加上了,然后就是要做一些输出了,我们先把一个ts视频文件的时长 格式打印一下。

输出文件信息.png

ok,现在,我们先尝试下把这些信息输出到一个文件里面去

输出视频信息到文件.png

ok,现在剩下输出h264文件和yuv文件了,不过这里先不帖出来了,下篇文章会贴出来的,有跟着学的同学们可以自己试一下,如何输出h264文件和yuv文件~~

持续更新,欢迎关注~~~

相关推荐

Github霸榜的SpringBoot全套学习教程,从入门到实战,内容超详细

前言...

SpringBoot+LayUI后台管理系统开发脚手架

源码获取方式:关注,转发之后私信回复【源码】即可免费获取到!项目简介本项目本着避免重复造轮子的原则,建立一套快速开发JavaWEB项目(springboot-mini),能满足大部分后台管理系统基础开...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

2021年超详细的java学习路线总结—纯干货分享

本文整理了java开发的学习路线和相关的学习资源,非常适合零基础入门java的同学,希望大家在学习的时候,能够节省时间。纯干货,良心推荐!第一阶段:Java基础...

探秘Spring Cache:让Java应用飞起来的秘密武器

探秘SpringCache:让Java应用飞起来的秘密武器在当今快节奏的软件开发环境中,性能优化显得尤为重要。SpringCache作为Spring框架的一部分,为我们提供了强大的缓存管理能力,让...

3,从零开始搭建SSHM开发框架(集成Spring MVC)

目录本专题博客已共享在(这个可能会更新的稍微一些)https://code.csdn.net/yangwei19680827/maven_sshm_blog...

Spring Boot中如何使用缓存?超简单

SpringBoot中的缓存可以减少从数据库重复获取数据或执行昂贵计算的需要,从而显著提高应用程序的性能。SpringBoot提供了与各种缓存提供程序的集成,您可以在应用程序中轻松配置和使用缓...

我敢保证,全网没有再比这更详细的Java知识点总结了,送你啊

接下来你看到的将是全网最详细的Java知识点总结,全文分为三大部分:Java基础、Java框架、Java+云数据小编将为大家仔细讲解每大部分里面的详细知识点,别眨眼,从小白到大佬、零基础到精通,你绝...

1,从零开始搭建SSHM开发框架(环境准备)

目录本专题博客已共享在https://code.csdn.net/yangwei19680827/maven_sshm_blog1,从零开始搭建SSHM开发框架(环境准备)...

做一个适合二次开发的低代码平台,把程序员从curd中解脱出来-1

干程序员也有好长时间了,大多数时间都是在做curd。现在想做一个通用的curd平台直接将我们解放出来;把核心放在业务处理中。用过代码生成器,在数据表设计好之后使用它就可以生成需要的controller...

设计一个高性能Java Web框架(java做网站的框架)

设计一个高性能JavaWeb框架在当今互联网高速发展的时代,构建高性能的JavaWeb框架对于提升用户体验至关重要。本文将从多个角度探讨如何设计这样一个框架,让我们一起进入这段充满挑战和乐趣的旅程...

【推荐】强&amp;牛!一款开源免费的功能强大的代码生成器系统!

今天,给大家推荐一个代码生成器系统项目,这个项目目前收获了5.3KStar,个人觉得不错,值得拿出来和大家分享下。这是我目前见过最好的代码生成器系统项目。功能完整,代码结构清晰。...

Java面试题及答案总结(2025版持续更新)

大家好,我是Java面试分享最近很多小伙伴在忙着找工作,给大家整理了一份非常全面的Java面试场景题及答案。...

Java开发网站架构演变过程-从单体应用到微服务架构详解

Java开发网站架构演变过程,到目前为止,大致分为5个阶段,分别为单体架构、集群架构、分布式架构、SOA架构和微服务架构。下面玄武老师来给大家详细介绍下这5种架构模式的发展背景、各自优缺点以及涉及到的...

本地缓存GuavaCache(一)(guava本地缓存原理)

在并发量、吞吐量越来越大的情况下往往是离不开缓存的,使用缓存能减轻数据库的压力,临时存储数据。根据不同的场景选择不同的缓存,分布式缓存有Redis,Memcached、Tair、EVCache、Aer...