2023-03-24:音视频mp3和h264混合(muxer)编码为mp4,用go语言编写。
2023-03-24:音视频mp3和h264混合(muxer)编码为mp4,用go语言编写。
答案2023-03-24:
这是一个使用FFmpeg库将MP3和H.264混合编码为MP4的Go语言程序。程序的大体过程如下:
1.设置FFmpeg库路径和环境变量。
2.检查并创建输出目录,以及输入视频和音频文件。
3.打开输入视频文件并查找视频流,打开输入音频文件并查找音频流。
4.新建输出上下文,并为视频和音频创建新的输出流。
5.打开输出文件。
6.写输出文件头。
7.读取输入视频和音频帧,将它们转换为输出格式,写入输出文件。在这个过程中,需要进行PTS/DTS转换和比特流过滤(如果需要)。
8.写输出文件尾。
9.清理资源并关闭输入和输出文件。
10.播放输出文件(可选)。
代码见github/moonfdd/ffmpeg-go库。
执行命令:
go run ./examples/a24.video_muxer_mp3h2642mp4/main.go
代码参考24:音视频mp3和h264混合(muxer)编码为mp4,代码如下:
// https://feater.top/ffmpeg/ffmpeg-muxer-encode-mp3-h264-to-mp4
package main
import (
"fmt"
"os"
"os/exec"
"unsafe"
"github.com/moonfdd/ffmpeg-go/ffcommon"
"github.com/moonfdd/ffmpeg-go/libavcodec"
"github.com/moonfdd/ffmpeg-go/libavformat"
"github.com/moonfdd/ffmpeg-go/libavutil"
)
/*
FIX: H.264 in some container format (FLV, MP4, MKV etc.) need
"h264_mp4toannexb" bitstream filter (BSF)
*Add SPS,PPS in front of IDR frame
*Add start code ("0,0,0,1") in front of NALU
H.264 in some container (MPEG2TS) don't need this BSF.
*/
//'1': Use H.264 Bitstream Filter
const USE_H264BSF = 0
/*
FIX:AAC in some container format (FLV, MP4, MKV etc.) need
"aac_adtstoasc" bitstream filter (BSF)
*/
//'1': Use AAC Bitstream Filter
const USE_AACBSF = 0
func main() {
os.Setenv("Path", os.Getenv("Path")+";./lib")
ffcommon.SetAvutilPath("./lib/avutil-56.dll")
ffcommon.SetAvcodecPath("./lib/avcodec-58.dll")
ffcommon.SetAvdevicePath("./lib/avdevice-58.dll")
ffcommon.SetAvfilterPath("./lib/avfilter-56.dll")
ffcommon.SetAvformatPath("./lib/avformat-58.dll")
ffcommon.SetAvpostprocPath("./lib/postproc-55.dll")
ffcommon.SetAvswresamplePath("./lib/swresample-3.dll")
ffcommon.SetAvswscalePath("./lib/swscale-5.dll")
genDir := "./out"
_, err := os.Stat(genDir)
if err != nil {
if os.IsNotExist(err) {
os.Mkdir(genDir, 0777) // Everyone can read write and execute
}
}
inFilenameVideo := "./out/a24.h264"
inFilenameAudio := "./out/a24.aac"
outFilename := "./out/a24.mp4"
_, err = os.Stat(inFilenameVideo)
if err != nil {
if os.IsNotExist(err) {
fmt.Println("create h264 file")
exec.Command("./lib/ffmpeg", "-i", "./resources/big_buck_bunny.mp4", "-vcodec", "copy", "-an", inFilenameVideo).Output()
}
}
_, err = os.Stat(inFilenameAudio)
if err != nil {
if os.IsNotExist(err) {
fmt.Println("create aac file")
exec.Command("./lib/ffmpeg", "-i", "./resources/big_buck_bunny.mp4", "-acodec", "copy", "-vn", inFilenameAudio).Output()
}
}
var ifmtCtxVideo, ifmtCtxAudio, ofmtCtx *libavformat.AVFormatContext
var packet libavcodec.AVPacket
var inVideoIndex, inAudioIndex ffcommon.FInt = -1, -1
var outVideoIndex, outAudioIndex ffcommon.FInt = -1, -1
var frameIndex ffcommon.FInt = 0
var curPstVideo, curPstAudio ffcommon.FInt64T = 0, 0
var ret ffcommon.FInt = 0
var i ffcommon.FUnsignedInt = 0
var h264bsfc, aacbsfc *libavcodec.AVBitStreamFilterContext
//打开输入视频文件
ret = libavformat.AvformatOpenInput(&ifmtCtxVideo, inFilenameVideo, nil, nil)
if ret < 0 {
fmt.Printf("can't open input video file\n")
goto end
}
//查找输入流
ret = ifmtCtxVideo.AvformatFindStreamInfo(nil)
if ret < 0 {
fmt.Printf("failed to retrieve input video stream information\n")
goto end
}
//打开输入音频文件
ret = libavformat.AvformatOpenInput(&ifmtCtxAudio, inFilenameAudio, nil, nil)
if ret < 0 {
fmt.Printf("can't open input audio file\n")
goto end
}
//查找输入流
ret = ifmtCtxAudio.AvformatFindStreamInfo(nil)
if ret < 0 {
fmt.Printf("failed to retrieve input audio stream information\n")
goto end
}
fmt.Printf("===========Input Information==========\n")
ifmtCtxVideo.AvDumpFormat(0, inFilenameVideo, 0)
ifmtCtxAudio.AvDumpFormat(0, inFilenameAudio, 0)
fmt.Printf("======================================\n")
//新建输出上下文
libavformat.AvformatAllocOutputContext2(&ofmtCtx, nil, "", outFilename)
if ofmtCtx == nil {
fmt.Printf("can't create output context\n")
goto end
}
//视频输入流
for i = 0; i < ifmtCtxVideo.NbStreams; i++ {
if ifmtCtxVideo.GetStream(i).Codecpar.CodecType == libavutil.AVMEDIA_TYPE_VIDEO {
inStream := ifmtCtxVideo.GetStream(i)
outStream := ofmtCtx.AvformatNewStream(nil)
inVideoIndex = int32(i)
if outStream == nil {
fmt.Printf("failed to allocate output stream\n")
goto end
}
outVideoIndex = outStream.Index
if libavcodec.AvcodecParametersCopy(outStream.Codecpar, inStream.Codecpar) < 0 {
fmt.Printf("faild to copy context from input to output stream")
goto end
}
outStream.Codecpar.CodecTag = 0
break
}
}
//音频输入流
for i = 0; i < ifmtCtxAudio.NbStreams; i++ {
if ifmtCtxAudio.GetStream(i).Codecpar.CodecType == libavutil.AVMEDIA_TYPE_AUDIO {
inStream := ifmtCtxAudio.GetStream(i)
outStream := ofmtCtx.AvformatNewStream(nil)
inAudioIndex = int32(i)
if outStream == nil {
fmt.Printf("failed to allocate output stream\n")
goto end
}
outAudioIndex = outStream.Index
if libavcodec.AvcodecParametersCopy(outStream.Codecpar, inStream.Codecpar) < 0 {
fmt.Printf("faild to copy context from input to output stream")
goto end
}
outStream.Codecpar.CodecTag = 0
break
}
}
fmt.Printf("==========Output Information==========\n")
ofmtCtx.AvDumpFormat(0, outFilename, 1)
fmt.Printf("======================================\n")
//打开输入文件
if ofmtCtx.Oformat.Flags&libavformat.AVFMT_NOFILE == 0 {
if libavformat.AvioOpen(&ofmtCtx.Pb, outFilename, libavformat.AVIO_FLAG_WRITE) < 0 {
fmt.Printf("can't open out file\n")
goto end
}
}
//写文件头
if ofmtCtx.AvformatWriteHeader(nil) < 0 {
fmt.Printf("Error occurred when opening output file\n")
goto end
}
if USE_H264BSF != 0 {
h264bsfc = libavcodec.AvBitstreamFilterInit("h264_mp4toannexb")
}
if USE_AACBSF != 0 {
aacbsfc = libavcodec.AvBitstreamFilterInit("aac_adtstoasc")
}
for {
var ifmtCtx *libavformat.AVFormatContext
var inStream, outStream *libavformat.AVStream
var streamIndex ffcommon.FInt = 0
if libavutil.AvCompareTs(curPstVideo, ifmtCtxVideo.GetStream(uint32(inVideoIndex)).TimeBase, curPstAudio, ifmtCtxAudio.GetStream(uint32(inAudioIndex)).TimeBase) < 0 {
ifmtCtx = ifmtCtxVideo
streamIndex = outVideoIndex
if ifmtCtx.AvReadFrame(&packet) >= 0 {
for {
inStream = ifmtCtx.GetStream(packet.StreamIndex)
outStream = ofmtCtx.GetStream(uint32(streamIndex))
if packet.StreamIndex == uint32(inVideoIndex) {
//Fix: No PTS(Example: Raw H.264
//Simple Write PTS
if packet.Pts == libavutil.AV_NOPTS_VALUE {
//write PTS
timeBase1 := inStream.TimeBase
//Duration between 2 frames
calcDuration := int64(libavutil.AV_TIME_BASE / libavutil.AvQ2d(inStream.RFrameRate))
//Parameters
packet.Pts = int64((float64(frameIndex) * float64(calcDuration)) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
packet.Dts = packet.Pts
packet.Duration = int64(float64(calcDuration) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
frameIndex++
}
curPstVideo = packet.Pts
break
}
if ifmtCtx.AvReadFrame(&packet) >= 0 {
} else {
break
}
}
} else {
break
}
} else {
ifmtCtx = ifmtCtxAudio
streamIndex = outAudioIndex
if ifmtCtx.AvReadFrame(&packet) >= 0 {
for {
inStream = ifmtCtx.GetStream(packet.StreamIndex)
outStream = ofmtCtx.GetStream(uint32(streamIndex))
if packet.StreamIndex == uint32(inAudioIndex) {
//Fix: No PTS(Example: Raw H.264
//Simple Write PTS
if packet.Pts == libavutil.AV_NOPTS_VALUE {
//write PTS
timeBase1 := inStream.TimeBase
//Duration between 2 frames
calcDuration := int64(libavutil.AV_TIME_BASE / libavutil.AvQ2d(inStream.RFrameRate))
//Parameters
packet.Pts = int64((float64(frameIndex) * float64(calcDuration)) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
packet.Dts = packet.Pts
packet.Duration = int64(float64(calcDuration) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
frameIndex++
}
curPstAudio = packet.Pts
break
}
if ifmtCtx.AvReadFrame(&packet) >= 0 {
} else {
break
}
}
} else {
break
}
}
//FIX:Bitstream Filter
if USE_H264BSF != 0 {
h264bsfc.AvBitstreamFilterFilter(inStream.Codec, "", &packet.Data, (*int32)(unsafe.Pointer(&packet.Size)), packet.Data, int32(packet.Size), 0)
}
if USE_AACBSF != 0 {
aacbsfc.AvBitstreamFilterFilter(outStream.Codec, "", &packet.Data, (*int32)(unsafe.Pointer(&packet.Size)), packet.Data, int32(packet.Size), 0)
}
//Convert PTS/DTS
packet.Pts = libavutil.AvRescaleQRnd(packet.Pts, inStream.TimeBase, outStream.TimeBase, libavutil.AV_ROUND_NEAR_INF|libavutil.AV_ROUND_PASS_MINMAX)
packet.Dts = libavutil.AvRescaleQRnd(packet.Dts, inStream.TimeBase, outStream.TimeBase, libavutil.AV_ROUND_NEAR_INF|libavutil.AV_ROUND_PASS_MINMAX)
packet.Duration = libavutil.AvRescaleQ(packet.Duration, inStream.TimeBase, outStream.TimeBase)
packet.Pos = -1
packet.StreamIndex = uint32(streamIndex)
//write
if ofmtCtx.AvInterleavedWriteFrame(&packet) < 0 {
fmt.Printf("error muxing packet")
break
}
packet.AvPacketUnref()
}
//Write file trailer
ofmtCtx.AvWriteTrailer()
if USE_H264BSF != 0 {
h264bsfc.AvBitstreamFilterClose()
}
if USE_AACBSF != 0 {
aacbsfc.AvBitstreamFilterClose()
}
end:
libavformat.AvformatCloseInput(&ifmtCtxVideo)
libavformat.AvformatCloseInput(&ifmtCtxAudio)
if ofmtCtx != nil && ofmtCtx.Oformat.Flags&libavformat.AVFMT_NOFILE == 0 {
ofmtCtx.Pb.AvioClose()
}
ofmtCtx.AvformatFreeContext()
fmt.Println("-----------------------------------------")
_, err = exec.Command("./lib/ffplay.exe", outFilename).Output()
if err != nil {
fmt.Println("play err = ", err)
}
}

2023-03-24:音视频mp3和h264混合(muxer)编码为mp4,用go语言编写。的更多相关文章
- 音视频处理之H264编码标准20170906
一. H264基础概念 1.名词解释 场和帧 : 视频的一场或一帧可用来产生一个编码图像.在电视中,为减少大面积闪烁现象,把一帧分成两个隔行的场. 片: 每个图象中,若干 ...
- 第六十篇、音视频采集硬编码(H264+ACC)
使用 AVCaptureSession进行实时采集音视频(YUV.),编码 通过AVCaptureVideoDataOutputSampleBufferDelegate获取到音视频buffer- 数据 ...
- 音视频通讯QoS技术及其演进
利用多种算法和策略进行网络传输控制,最大限度满足弱网场景下的音视频用户体验. 良逸|技术作者 01 什么是QoS?音视频通讯QoS是哪一类? QoS(Quality of Service)是服务质量的 ...
- HTML5_音视频标签 <audio> 和 <video>
HTML5_音视频标签 <audio> 和 <video> audio 和 video 都是 inline行内元素 如果浏览器支持,则不显示标签文本 IE8 不支持 audio ...
- 手机Android音视频採集与直播推送,实现单兵、移动监控类应用
最新手机採集推送直播监控以及EasyDarwin开源流媒体平台的版本号及代码: EasyDarwin 开源流媒体云平台:https://github.com/easydarwin EasyClient ...
- 音视频编解码问题:javaCV如何快速进行音频预处理和解复用编解码(基于javaCV-FFMPEG)
前言: 前面我用了很多章实现了javaCV的基本操作,包括:音视频捕捉(摄像头视频捕捉和话筒音频捕捉),推流(本地音视频或者摄像头话筒混合推流到服务器),转流(rtsp->rtmp),收流(录制 ...
- 【FFMPEG】各种音视频编解码学习详解 h264 ,mpeg4 ,aac 等所有音视频格式
目录(?)[-] 编解码学习笔记二codec类型 编解码学习笔记三Mpeg系列Mpeg 1和Mpeg 2 编解码学习笔记四Mpeg系列Mpeg 4 编解码学习笔记五Mpeg系列AAC音频 编解码学习笔 ...
- 全志Tina_dolphin播放音视频裸流(h264,pcm)验证
最近在验证tina对裸流音视频的支持,主要指h264视频裸流及pcm音频裸流. 在原始sdk中有针对很多video和audio类型的parser,但就是没有找到pcm和h264的parser,所以需要 ...
- RTP协议解析及H264/H265 音视频RTP打包分析
一 概述 实时传输协议(Real-time Transport Protocol或简写RTP)是一个网络传输协议,它是由IETF的多媒体传输工作小组1996年在RFC 1889中公布的. RTP协议详 ...
- Android音视频开发(1):H264 基本原理
前言 H264 视频压缩算法现在无疑是所有视频压缩技术中使用最广泛,最流行的.随着 x264/openh264 以及 ffmpeg 等开源库的推出,大多数使用者无需再对H264的细节做过多的研究,这大 ...
随机推荐
- vue项目怎么链接开发服务器
在前后端分离的前提下,完成前端的页面开发,就可以开始链接开发服务器 安装axios到项目中 npm install axios --save 安装完成后问你的后端开发人员要IP 后端会给一个IP以及端 ...
- .bat 脚本替换文件内容
rem 定义变量延迟环境,关闭回显 @echo off&setlocal enabledelayedexpansion rem 读取a.txt所有内容 for /f "eol=* t ...
- LaravelORM 中的 withSum , withAvg, withMax,withMin 的实现
Orm::withCount(['relation as relation_sum' =>function($query){ $query->select(DB::raw("su ...
- SpringBoot整合RocketMQ案例实战
一.概念 rocketMQ是一款典型的分布式架构下的中间件产品,使用异步通信方式和发布订阅的消息传输模型,具备异步通信的优势,系统拓扑简单,上下游耦合较弱,主要应用于异步解耦,流量削峰填谷等场景 二. ...
- SpringBoot笔记--自动配置(高级内容)(中集)
@Enable*注解 使用该注解,需要导入相应的依赖坐标,其中的groupId标签里面写入Bean的Java文件所在的包的路径下面 spring-enable-other 还需要在SpringBoot ...
- Python学习笔记--高阶技巧(二)
Socket服务端开发 基本步骤如下: socket客户端开发 基本步骤如下: 1.创建socket对象 2.连接到服务器 3.发送消息 4.接收返回消息 5.关闭连接 正则表达式 基础方法 matc ...
- 浅谈js防抖和节流
防抖和节流是处理高频触发最常见的优化方式,对性能提升有很大的帮助. 防抖:将多次的高频操作优化为只在最后一次执行,应用场景如:输入框,只需在最后一次输入进行校验即可. 节流:保证每隔一段时间只执行一次 ...
- java常用的数据类型有哪些
前言 在上一篇文章中,壹哥给大家讲解了Java中变量的定义.使用及基本原理等内容,这个内容并不是很难,但却是我们走向Java大神的第一步!壹哥希望你从第一天就要认真对待哦. 在前面讲解变量时,壹哥给大 ...
- 5分钟带你彻底搞懂async底层实现原理!
ES2017 标准引入了 async 函数,使得异步操作变得更加方便. async 函数是什么?一句话,它就是 Generator 函数的语法糖.研究 async 的原理,就必须先弄清楚 Genera ...
- Swift之struct二进制大小分析
作者:京东零售 邓立兵 随着Swift的日渐成熟和给开发过程带来的便利性及安全性,京喜App中的原生业务模块和基础模块使用Swift开发占比逐渐增高.本次讨论的是struct对比Class的一些优劣势 ...