阅读 70

音视频-H264编码

H264编码原理和音视频-AAC编码原理几乎一样, 不同的是就buffer缓冲区的处理, 编码的事情都是通过H264编码器去实现

AAC编码的简略逻辑 :

源文件 ==》 AVFrame ==》编码器 ==》AVPacket ==> 输出文件

H264编码的简略逻辑

源文件 ==》 AVFrame ==》编码器 ==》AVPacket ==> 输出文件

是的, 两个是一样的。不同的是, YUV是以一帧一帧的数据读取。

#include "h264encodethread.h"
#include <QDebug>
#include <QFile>

extern "C" {
#include <libavcodec/avcodec.h>
#include <libavutil/channel_layout.h>
#include <libavutil/common.h>
#include <libavutil/frame.h>
#include <libavutil/imgutils.h>
}

#define ERROR_BUF(ret) \
    char errbuf[1024]; \
    av_strerror(ret, errbuf, sizeof (errbuf));


#define CHECK_IF_ERROR_BUF_END(ret, funcStr) \
    if (ret) { \
        ERROR_BUF(ret); \
        qDebug() << #funcStr << " error :" << errbuf; \
        goto end; \
    }

#ifdef Q_OS_WIN
    #define IN_YUV_FILEPATH "G:/BigBuckBunny_CIF_24fps.yuv"
    #define OUT_H264_FILEPATH "G:/BigBuckBunny_CIF_24fps_h264.h264"
    #define YUV_VIDEO_SIZE_WIDTH 352
    #define YUV_VIDEO_SIZE_HEIGH 288
#else
    #define IN_YUV_FILEPATH "/Users/liliguang/Desktop/in.yuv"
    #define OUT_H264_FILEPATH "/Users/liliguang/Desktop/out.h264"
    #define YUV_VIDEO_SIZE_WIDTH 352
    #define YUV_VIDEO_SIZE_HEIGH 288
#endif



H264EncodeThread::H264EncodeThread(QObject *parent) : QThread(parent) {
    // 当监听到线程结束时(finished),就调用deleteLater回收内存
    connect(this, &H264EncodeThread::finished,
            this, &H264EncodeThread::deleteLater);
}

H264EncodeThread::~H264EncodeThread() {
    // 断开所有的连接
    disconnect();
    // 内存回收之前,正常结束线程
    requestInterruption();
    // 安全退出
    quit();
    wait();
    qDebug() << this << "析构(内存被回收)";
}

/* check that a given pix_format is supported by the encoder */
static int check_pixel_fmt(const AVCodec *codec,
                           enum AVPixelFormat pix_fmt) {
    const enum AVPixelFormat *p = codec->pix_fmts;
    while (*p != AV_PIX_FMT_NONE) {
        if (*p == pix_fmt) {
            return 1;
        }
        p++;
    }
    return 0;
}


// H264编码
// 返回负数:中途出现了错误
// 返回0:编码操作正常完成
static int encode(AVCodecContext *ctx,
                  AVFrame *frame,
                  AVPacket *pkt,
                  QFile &outFile) {
    // 发送数据到编码器
    int ret = avcodec_send_frame(ctx, frame);
    if (ret < 0) {
        ERROR_BUF(ret);
        qDebug() << "avcodec_send_frame error" << errbuf;
        return ret;
    }

    // 不断从编码器中取出编码后的数据
    // while (ret >= 0)
    while (true) {
        ret = avcodec_receive_packet(ctx, pkt);
        if (ret == AVERROR(EAGAIN) || ret == AVERROR_EOF) {
            //  output is not available in the current state - user must try to send input
            // 继续读取数据到frame,然后送到编码器
            return 0;
        } else if (ret < 0) { // 其他错误
            return ret;
        }
        // 成功从编码器拿到编码后的数据
        // 将编码后的数据写入文件
        outFile.write((char *) pkt->data, pkt->size);

        // 释放pkt内部的资源
        av_packet_unref(pkt);
    }

}




void H264EncodeThread::run() {
    // H264编码的思路和Acc编码的思路差不多
    // 读取文件内容 -> buffer缓冲区 -> 一帧数据 -> 核心函数编码 -> 输出缓冲区 -> 输出文件

    qDebug() << "H264EncodeThread run ";

    // 输入输出文件
    const char *infilename;
    const char *outfilename;

    // 编码器
    const AVCodec *codec;
    // 编码器上下文
    AVCodecContext *codecCtx = nullptr;
    // 源文件数据源存储结构指针
    AVFrame *frame = nullptr;
    // 编码文件数据源存储结构指针
    AVPacket *pkt = nullptr;

    int check_pixel_fmt_Ret;
    int avcodec_open2_Ret;
    int av_image_alloc_ret;

    int infileOpen_Ret;
    int outfileOpen_Ret;

    int readFile_Ret;
    int encode_ret;

    int ptsIndex = 0;
    int imageSize = YUV_VIDEO_SIZE_WIDTH * YUV_VIDEO_SIZE_HEIGH * 1.5;

    infilename = IN_YUV_FILEPATH;
    outfilename = OUT_H264_FILEPATH;

    QFile inFile(infilename);
    QFile outFile(outfilename);


    // 编码器
    codec = avcodec_find_encoder_by_name("libx264"); // 用查找编码器的名称的方式。 默认的可能找到的不一样
    CHECK_IF_ERROR_BUF_END(!codec, "avcodec_find_encoder");

    // 创建编码器上下文
    codecCtx = avcodec_alloc_context3(codec);
    CHECK_IF_ERROR_BUF_END(!codecCtx, "avcodec_alloc_context3");

    // 设置编码器上下文对应信息
    codecCtx->pix_fmt = AV_PIX_FMT_YUV420P;
    codecCtx->width = YUV_VIDEO_SIZE_WIDTH;
    codecCtx->height = YUV_VIDEO_SIZE_HEIGH;
    // 这里要计算24 pfs
    // fps = codecCtx->time_base.den / codecCtx->time_base.num
    // 24 = 24 / 1
    codecCtx->time_base.num = 1;       //分子
    codecCtx->time_base.den = 24;         //分母

    // 检查编码器支持的样本格式
    check_pixel_fmt_Ret = check_pixel_fmt(codec, codecCtx->pix_fmt);
    CHECK_IF_ERROR_BUF_END(!check_pixel_fmt_Ret, "check_sample_fmt");

    // 打开编码器
    avcodec_open2_Ret = avcodec_open2(codecCtx, codec, nullptr);
    CHECK_IF_ERROR_BUF_END(avcodec_open2_Ret, "avcodec_open2");

    // 打开源文件
    infileOpen_Ret = !inFile.open(QFile::ReadOnly);
    CHECK_IF_ERROR_BUF_END(infileOpen_Ret, "sourceFile.open");

    // 打开源文件
    outfileOpen_Ret = !outFile.open(QFile::WriteOnly);
    CHECK_IF_ERROR_BUF_END(outfileOpen_Ret, "sourceFile.outFile");

    // 创建输出Packet
    pkt = av_packet_alloc();
    CHECK_IF_ERROR_BUF_END(!pkt, "av_packet_alloc");

    // 创建AVFrame结构体本身
    frame = av_frame_alloc();
    CHECK_IF_ERROR_BUF_END(!frame, "av_frame_alloc");

    // 为音频或视频数据分配新的缓冲区。
    // 在调用此函数之前,必须在框架上设置以下字段:
    // - 格式(视频的像素格式,音频的样本格式)
    // - 视频的宽度和高度
    // 设置frame必要信息
    frame->format = codecCtx->pix_fmt;//像素格式
    frame->width = codecCtx->width;//分辨率宽
    frame->height = codecCtx->height; //分辨率高

    // 创建一帧的buffer缓冲区
    av_image_alloc_ret = av_image_alloc(frame->data, frame->linesize, frame->width, frame->height, (AVPixelFormat)frame->format, 16);
    CHECK_IF_ERROR_BUF_END(av_image_alloc_ret < 0, "av_image_alloc");

    // 编码
    // 源文件 ==> (AVFrame)输入缓冲区 ==> 编码器 ==> (AVPacket)输出缓冲区 ==> 输出文件
    // 这里应该读取一帧的大小
    while( (readFile_Ret = inFile.read((char *)frame->data[0], imageSize )) > 0 ) {
        frame->pts = ptsIndex++;
        // 编码
        encode_ret = encode(codecCtx, frame, pkt, outFile);
        CHECK_IF_ERROR_BUF_END(encode_ret < 0, 
    }

    // 在读取最后一次, 冲刷缓冲区
    encode(codecCtx, nullptr, pkt, outFile);

end:
    // 关闭文件
    inFile.close();
    outFile.close();

    // 释放资源
    av_frame_free(&frame);
    av_packet_free(&pkt);
    avcodec_free_context(&codecCtx);
    qDebug() << "AACEncodeThread end ";
}

注意点, 创建buffer缓冲区, 和音频的有点不一样,使用av_image_alloc

av_image_alloc_ret = av_image_alloc(frame->data, frame->linesize, frame->width, frame->height, (AVPixelFormat)frame->format, 16);

分别用命令行和程序运行进行H264编码

ffmpeg -video_size 352x288 -pixel_format yuv420p -framerate 24 -i .\BigBuckBunny_CIF_24fps.yuv -c:v libx264 .\ffmpeg_h264_out.h264

# -c:v libx264是指定使用libx264作为编码器

大小一致, 证明代码思路是没有问题, 现在再接着用ffplay播放一下

ffplay .\ffmpeg_h264_out.h264

ffmpeg_h264_out.h264

ffplay .\BigBuckBunny_CIF_24fps_h264.h264

BigBuckBunny_CIF_24fps_h264.h264

作者:li_礼光

原文链接:https://www.jianshu.com/p/9d7071913384

文章分类
后端
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXXXo@163.com 举报,一经查实,本站将立刻删除。
相关推荐