2023-03-24:音视频mp3和h264混合(muxer)编码为mp4,用go语言编写。

答案2023-03-24:

这是一个使用FFmpeg库将MP3和H.264混合编码为MP4的Go语言程序。程序的大体过程如下:

1.设置FFmpeg库路径和环境变量。

2.检查并创建输出目录,以及输入视频和音频文件。

3.打开输入视频文件并查找视频流,打开输入音频文件并查找音频流。

4.新建输出上下文,并为视频和音频创建新的输出流。

5.打开输出文件。

6.写输出文件头。

7.读取输入视频和音频帧,将它们转换为输出格式,写入输出文件。在这个过程中,需要进行PTS/DTS转换和比特流过滤(如果需要)。

8.写输出文件尾。

9.清理资源并关闭输入和输出文件。

10.播放输出文件(可选)。

代码见github/moonfdd/ffmpeg-go库。

执行命令:

go run ./examples/a24.video_muxer_mp3h2642mp4/main.go

代码参考24:音视频mp3和h264混合(muxer)编码为mp4,代码如下:

// https://feater.top/ffmpeg/ffmpeg-muxer-encode-mp3-h264-to-mp4
package main import (
"fmt"
"os"
"os/exec"
"unsafe" "github.com/moonfdd/ffmpeg-go/ffcommon"
"github.com/moonfdd/ffmpeg-go/libavcodec"
"github.com/moonfdd/ffmpeg-go/libavformat"
"github.com/moonfdd/ffmpeg-go/libavutil"
) /*
FIX: H.264 in some container format (FLV, MP4, MKV etc.) need
"h264_mp4toannexb" bitstream filter (BSF)
*Add SPS,PPS in front of IDR frame
*Add start code ("0,0,0,1") in front of NALU
H.264 in some container (MPEG2TS) don't need this BSF.
*/
//'1': Use H.264 Bitstream Filter
const USE_H264BSF = 0 /*
FIX:AAC in some container format (FLV, MP4, MKV etc.) need
"aac_adtstoasc" bitstream filter (BSF)
*/
//'1': Use AAC Bitstream Filter
const USE_AACBSF = 0 func main() {
os.Setenv("Path", os.Getenv("Path")+";./lib")
ffcommon.SetAvutilPath("./lib/avutil-56.dll")
ffcommon.SetAvcodecPath("./lib/avcodec-58.dll")
ffcommon.SetAvdevicePath("./lib/avdevice-58.dll")
ffcommon.SetAvfilterPath("./lib/avfilter-56.dll")
ffcommon.SetAvformatPath("./lib/avformat-58.dll")
ffcommon.SetAvpostprocPath("./lib/postproc-55.dll")
ffcommon.SetAvswresamplePath("./lib/swresample-3.dll")
ffcommon.SetAvswscalePath("./lib/swscale-5.dll") genDir := "./out"
_, err := os.Stat(genDir)
if err != nil {
if os.IsNotExist(err) {
os.Mkdir(genDir, 0777) // Everyone can read write and execute
}
} inFilenameVideo := "./out/a24.h264"
inFilenameAudio := "./out/a24.aac"
outFilename := "./out/a24.mp4" _, err = os.Stat(inFilenameVideo)
if err != nil {
if os.IsNotExist(err) {
fmt.Println("create h264 file")
exec.Command("./lib/ffmpeg", "-i", "./resources/big_buck_bunny.mp4", "-vcodec", "copy", "-an", inFilenameVideo).Output()
}
} _, err = os.Stat(inFilenameAudio)
if err != nil {
if os.IsNotExist(err) {
fmt.Println("create aac file")
exec.Command("./lib/ffmpeg", "-i", "./resources/big_buck_bunny.mp4", "-acodec", "copy", "-vn", inFilenameAudio).Output()
}
} var ifmtCtxVideo, ifmtCtxAudio, ofmtCtx *libavformat.AVFormatContext
var packet libavcodec.AVPacket var inVideoIndex, inAudioIndex ffcommon.FInt = -1, -1
var outVideoIndex, outAudioIndex ffcommon.FInt = -1, -1
var frameIndex ffcommon.FInt = 0 var curPstVideo, curPstAudio ffcommon.FInt64T = 0, 0 var ret ffcommon.FInt = 0
var i ffcommon.FUnsignedInt = 0 var h264bsfc, aacbsfc *libavcodec.AVBitStreamFilterContext //打开输入视频文件
ret = libavformat.AvformatOpenInput(&ifmtCtxVideo, inFilenameVideo, nil, nil)
if ret < 0 {
fmt.Printf("can't open input video file\n")
goto end
} //查找输入流
ret = ifmtCtxVideo.AvformatFindStreamInfo(nil)
if ret < 0 {
fmt.Printf("failed to retrieve input video stream information\n")
goto end
} //打开输入音频文件
ret = libavformat.AvformatOpenInput(&ifmtCtxAudio, inFilenameAudio, nil, nil)
if ret < 0 {
fmt.Printf("can't open input audio file\n")
goto end
} //查找输入流
ret = ifmtCtxAudio.AvformatFindStreamInfo(nil)
if ret < 0 {
fmt.Printf("failed to retrieve input audio stream information\n")
goto end
} fmt.Printf("===========Input Information==========\n")
ifmtCtxVideo.AvDumpFormat(0, inFilenameVideo, 0)
ifmtCtxAudio.AvDumpFormat(0, inFilenameAudio, 0)
fmt.Printf("======================================\n") //新建输出上下文
libavformat.AvformatAllocOutputContext2(&ofmtCtx, nil, "", outFilename)
if ofmtCtx == nil {
fmt.Printf("can't create output context\n")
goto end
} //视频输入流
for i = 0; i < ifmtCtxVideo.NbStreams; i++ {
if ifmtCtxVideo.GetStream(i).Codecpar.CodecType == libavutil.AVMEDIA_TYPE_VIDEO {
inStream := ifmtCtxVideo.GetStream(i)
outStream := ofmtCtx.AvformatNewStream(nil)
inVideoIndex = int32(i) if outStream == nil {
fmt.Printf("failed to allocate output stream\n")
goto end
} outVideoIndex = outStream.Index if libavcodec.AvcodecParametersCopy(outStream.Codecpar, inStream.Codecpar) < 0 {
fmt.Printf("faild to copy context from input to output stream")
goto end
} outStream.Codecpar.CodecTag = 0 break
}
} //音频输入流
for i = 0; i < ifmtCtxAudio.NbStreams; i++ {
if ifmtCtxAudio.GetStream(i).Codecpar.CodecType == libavutil.AVMEDIA_TYPE_AUDIO {
inStream := ifmtCtxAudio.GetStream(i)
outStream := ofmtCtx.AvformatNewStream(nil)
inAudioIndex = int32(i) if outStream == nil {
fmt.Printf("failed to allocate output stream\n")
goto end
} outAudioIndex = outStream.Index if libavcodec.AvcodecParametersCopy(outStream.Codecpar, inStream.Codecpar) < 0 {
fmt.Printf("faild to copy context from input to output stream")
goto end
} outStream.Codecpar.CodecTag = 0 break
}
} fmt.Printf("==========Output Information==========\n")
ofmtCtx.AvDumpFormat(0, outFilename, 1)
fmt.Printf("======================================\n") //打开输入文件
if ofmtCtx.Oformat.Flags&libavformat.AVFMT_NOFILE == 0 {
if libavformat.AvioOpen(&ofmtCtx.Pb, outFilename, libavformat.AVIO_FLAG_WRITE) < 0 {
fmt.Printf("can't open out file\n")
goto end
}
} //写文件头
if ofmtCtx.AvformatWriteHeader(nil) < 0 {
fmt.Printf("Error occurred when opening output file\n")
goto end
} if USE_H264BSF != 0 {
h264bsfc = libavcodec.AvBitstreamFilterInit("h264_mp4toannexb")
}
if USE_AACBSF != 0 {
aacbsfc = libavcodec.AvBitstreamFilterInit("aac_adtstoasc")
}
for {
var ifmtCtx *libavformat.AVFormatContext
var inStream, outStream *libavformat.AVStream
var streamIndex ffcommon.FInt = 0 if libavutil.AvCompareTs(curPstVideo, ifmtCtxVideo.GetStream(uint32(inVideoIndex)).TimeBase, curPstAudio, ifmtCtxAudio.GetStream(uint32(inAudioIndex)).TimeBase) < 0 {
ifmtCtx = ifmtCtxVideo
streamIndex = outVideoIndex if ifmtCtx.AvReadFrame(&packet) >= 0 {
for {
inStream = ifmtCtx.GetStream(packet.StreamIndex)
outStream = ofmtCtx.GetStream(uint32(streamIndex)) if packet.StreamIndex == uint32(inVideoIndex) {
//Fix: No PTS(Example: Raw H.264
//Simple Write PTS
if packet.Pts == libavutil.AV_NOPTS_VALUE {
//write PTS
timeBase1 := inStream.TimeBase
//Duration between 2 frames
calcDuration := int64(libavutil.AV_TIME_BASE / libavutil.AvQ2d(inStream.RFrameRate))
//Parameters
packet.Pts = int64((float64(frameIndex) * float64(calcDuration)) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
packet.Dts = packet.Pts
packet.Duration = int64(float64(calcDuration) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
frameIndex++
} curPstVideo = packet.Pts
break
}
if ifmtCtx.AvReadFrame(&packet) >= 0 { } else {
break
}
}
} else {
break
}
} else {
ifmtCtx = ifmtCtxAudio
streamIndex = outAudioIndex if ifmtCtx.AvReadFrame(&packet) >= 0 {
for {
inStream = ifmtCtx.GetStream(packet.StreamIndex)
outStream = ofmtCtx.GetStream(uint32(streamIndex)) if packet.StreamIndex == uint32(inAudioIndex) {
//Fix: No PTS(Example: Raw H.264
//Simple Write PTS
if packet.Pts == libavutil.AV_NOPTS_VALUE {
//write PTS
timeBase1 := inStream.TimeBase
//Duration between 2 frames
calcDuration := int64(libavutil.AV_TIME_BASE / libavutil.AvQ2d(inStream.RFrameRate))
//Parameters
packet.Pts = int64((float64(frameIndex) * float64(calcDuration)) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
packet.Dts = packet.Pts
packet.Duration = int64(float64(calcDuration) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
frameIndex++
} curPstAudio = packet.Pts
break
}
if ifmtCtx.AvReadFrame(&packet) >= 0 { } else {
break
}
}
} else {
break
}
} //FIX:Bitstream Filter
if USE_H264BSF != 0 {
h264bsfc.AvBitstreamFilterFilter(inStream.Codec, "", &packet.Data, (*int32)(unsafe.Pointer(&packet.Size)), packet.Data, int32(packet.Size), 0)
}
if USE_AACBSF != 0 {
aacbsfc.AvBitstreamFilterFilter(outStream.Codec, "", &packet.Data, (*int32)(unsafe.Pointer(&packet.Size)), packet.Data, int32(packet.Size), 0)
} //Convert PTS/DTS
packet.Pts = libavutil.AvRescaleQRnd(packet.Pts, inStream.TimeBase, outStream.TimeBase, libavutil.AV_ROUND_NEAR_INF|libavutil.AV_ROUND_PASS_MINMAX)
packet.Dts = libavutil.AvRescaleQRnd(packet.Dts, inStream.TimeBase, outStream.TimeBase, libavutil.AV_ROUND_NEAR_INF|libavutil.AV_ROUND_PASS_MINMAX)
packet.Duration = libavutil.AvRescaleQ(packet.Duration, inStream.TimeBase, outStream.TimeBase)
packet.Pos = -1
packet.StreamIndex = uint32(streamIndex) //write
if ofmtCtx.AvInterleavedWriteFrame(&packet) < 0 {
fmt.Printf("error muxing packet")
break
} packet.AvPacketUnref()
} //Write file trailer
ofmtCtx.AvWriteTrailer() if USE_H264BSF != 0 {
h264bsfc.AvBitstreamFilterClose()
}
if USE_AACBSF != 0 {
aacbsfc.AvBitstreamFilterClose()
} end:
libavformat.AvformatCloseInput(&ifmtCtxVideo)
libavformat.AvformatCloseInput(&ifmtCtxAudio)
if ofmtCtx != nil && ofmtCtx.Oformat.Flags&libavformat.AVFMT_NOFILE == 0 {
ofmtCtx.Pb.AvioClose()
} ofmtCtx.AvformatFreeContext()
fmt.Println("-----------------------------------------")
_, err = exec.Command("./lib/ffplay.exe", outFilename).Output()
if err != nil {
fmt.Println("play err = ", err)
}
}

2023-03-24:音视频mp3和h264混合(muxer)编码为mp4,用go语言编写。的更多相关文章

  1. 音视频处理之H264编码标准20170906

    一. H264基础概念 1.名词解释 场和帧 :    视频的一场或一帧可用来产生一个编码图像.在电视中,为减少大面积闪烁现象,把一帧分成两个隔行的场. 片:             每个图象中,若干 ...

  2. 第六十篇、音视频采集硬编码(H264+ACC)

    使用 AVCaptureSession进行实时采集音视频(YUV.),编码 通过AVCaptureVideoDataOutputSampleBufferDelegate获取到音视频buffer- 数据 ...

  3. 音视频通讯QoS技术及其演进

    利用多种算法和策略进行网络传输控制,最大限度满足弱网场景下的音视频用户体验. 良逸|技术作者 01 什么是QoS?音视频通讯QoS是哪一类? QoS(Quality of Service)是服务质量的 ...

  4. HTML5_音视频标签 <audio> 和 <video>

    HTML5_音视频标签 <audio> 和 <video> audio 和 video 都是 inline行内元素 如果浏览器支持,则不显示标签文本 IE8 不支持 audio ...

  5. 手机Android音视频採集与直播推送,实现单兵、移动监控类应用

    最新手机採集推送直播监控以及EasyDarwin开源流媒体平台的版本号及代码: EasyDarwin 开源流媒体云平台:https://github.com/easydarwin EasyClient ...

  6. 音视频编解码问题:javaCV如何快速进行音频预处理和解复用编解码(基于javaCV-FFMPEG)

    前言: 前面我用了很多章实现了javaCV的基本操作,包括:音视频捕捉(摄像头视频捕捉和话筒音频捕捉),推流(本地音视频或者摄像头话筒混合推流到服务器),转流(rtsp->rtmp),收流(录制 ...

  7. 【FFMPEG】各种音视频编解码学习详解 h264 ,mpeg4 ,aac 等所有音视频格式

    目录(?)[-] 编解码学习笔记二codec类型 编解码学习笔记三Mpeg系列Mpeg 1和Mpeg 2 编解码学习笔记四Mpeg系列Mpeg 4 编解码学习笔记五Mpeg系列AAC音频 编解码学习笔 ...

  8. 全志Tina_dolphin播放音视频裸流(h264,pcm)验证

    最近在验证tina对裸流音视频的支持,主要指h264视频裸流及pcm音频裸流. 在原始sdk中有针对很多video和audio类型的parser,但就是没有找到pcm和h264的parser,所以需要 ...

  9. RTP协议解析及H264/H265 音视频RTP打包分析

    一 概述 实时传输协议(Real-time Transport Protocol或简写RTP)是一个网络传输协议,它是由IETF的多媒体传输工作小组1996年在RFC 1889中公布的. RTP协议详 ...

  10. Android音视频开发(1):H264 基本原理

    前言 H264 视频压缩算法现在无疑是所有视频压缩技术中使用最广泛,最流行的.随着 x264/openh264 以及 ffmpeg 等开源库的推出,大多数使用者无需再对H264的细节做过多的研究,这大 ...

随机推荐

  1. vue项目怎么链接开发服务器

    在前后端分离的前提下,完成前端的页面开发,就可以开始链接开发服务器 安装axios到项目中 npm install axios --save 安装完成后问你的后端开发人员要IP 后端会给一个IP以及端 ...

  2. .bat 脚本替换文件内容

    rem 定义变量延迟环境,关闭回显 @echo off&setlocal enabledelayedexpansion rem 读取a.txt所有内容 for /f "eol=* t ...

  3. LaravelORM 中的 withSum , withAvg, withMax,withMin 的实现

    Orm::withCount(['relation as relation_sum' =>function($query){ $query->select(DB::raw("su ...

  4. SpringBoot整合RocketMQ案例实战

    一.概念 rocketMQ是一款典型的分布式架构下的中间件产品,使用异步通信方式和发布订阅的消息传输模型,具备异步通信的优势,系统拓扑简单,上下游耦合较弱,主要应用于异步解耦,流量削峰填谷等场景 二. ...

  5. SpringBoot笔记--自动配置(高级内容)(中集)

    @Enable*注解 使用该注解,需要导入相应的依赖坐标,其中的groupId标签里面写入Bean的Java文件所在的包的路径下面 spring-enable-other 还需要在SpringBoot ...

  6. Python学习笔记--高阶技巧(二)

    Socket服务端开发 基本步骤如下: socket客户端开发 基本步骤如下: 1.创建socket对象 2.连接到服务器 3.发送消息 4.接收返回消息 5.关闭连接 正则表达式 基础方法 matc ...

  7. 浅谈js防抖和节流

    防抖和节流是处理高频触发最常见的优化方式,对性能提升有很大的帮助. 防抖:将多次的高频操作优化为只在最后一次执行,应用场景如:输入框,只需在最后一次输入进行校验即可. 节流:保证每隔一段时间只执行一次 ...

  8. java常用的数据类型有哪些

    前言 在上一篇文章中,壹哥给大家讲解了Java中变量的定义.使用及基本原理等内容,这个内容并不是很难,但却是我们走向Java大神的第一步!壹哥希望你从第一天就要认真对待哦. 在前面讲解变量时,壹哥给大 ...

  9. 5分钟带你彻底搞懂async底层实现原理!

    ES2017 标准引入了 async 函数,使得异步操作变得更加方便. async 函数是什么?一句话,它就是 Generator 函数的语法糖.研究 async 的原理,就必须先弄清楚 Genera ...

  10. Swift之struct二进制大小分析

    作者:京东零售 邓立兵 随着Swift的日渐成熟和给开发过程带来的便利性及安全性,京喜App中的原生业务模块和基础模块使用Swift开发占比逐渐增高.本次讨论的是struct对比Class的一些优劣势 ...