2023-03-24:音视频mp3和h264混合(muxer)编码为mp4,用go语言编写。

答案2023-03-24:

这是一个使用FFmpeg库将MP3和H.264混合编码为MP4的Go语言程序。程序的大体过程如下:

1.设置FFmpeg库路径和环境变量。

2.检查并创建输出目录,以及输入视频和音频文件。

3.打开输入视频文件并查找视频流,打开输入音频文件并查找音频流。

4.新建输出上下文,并为视频和音频创建新的输出流。

5.打开输出文件。

6.写输出文件头。

7.读取输入视频和音频帧,将它们转换为输出格式,写入输出文件。在这个过程中,需要进行PTS/DTS转换和比特流过滤(如果需要)。

8.写输出文件尾。

9.清理资源并关闭输入和输出文件。

10.播放输出文件(可选)。

代码见github/moonfdd/ffmpeg-go库。

执行命令:

go run ./examples/a24.video_muxer_mp3h2642mp4/main.go

代码参考24:音视频mp3和h264混合(muxer)编码为mp4,代码如下:

// https://feater.top/ffmpeg/ffmpeg-muxer-encode-mp3-h264-to-mp4
package main import (
"fmt"
"os"
"os/exec"
"unsafe" "github.com/moonfdd/ffmpeg-go/ffcommon"
"github.com/moonfdd/ffmpeg-go/libavcodec"
"github.com/moonfdd/ffmpeg-go/libavformat"
"github.com/moonfdd/ffmpeg-go/libavutil"
) /*
FIX: H.264 in some container format (FLV, MP4, MKV etc.) need
"h264_mp4toannexb" bitstream filter (BSF)
*Add SPS,PPS in front of IDR frame
*Add start code ("0,0,0,1") in front of NALU
H.264 in some container (MPEG2TS) don't need this BSF.
*/
//'1': Use H.264 Bitstream Filter
const USE_H264BSF = 0 /*
FIX:AAC in some container format (FLV, MP4, MKV etc.) need
"aac_adtstoasc" bitstream filter (BSF)
*/
//'1': Use AAC Bitstream Filter
const USE_AACBSF = 0 func main() {
os.Setenv("Path", os.Getenv("Path")+";./lib")
ffcommon.SetAvutilPath("./lib/avutil-56.dll")
ffcommon.SetAvcodecPath("./lib/avcodec-58.dll")
ffcommon.SetAvdevicePath("./lib/avdevice-58.dll")
ffcommon.SetAvfilterPath("./lib/avfilter-56.dll")
ffcommon.SetAvformatPath("./lib/avformat-58.dll")
ffcommon.SetAvpostprocPath("./lib/postproc-55.dll")
ffcommon.SetAvswresamplePath("./lib/swresample-3.dll")
ffcommon.SetAvswscalePath("./lib/swscale-5.dll") genDir := "./out"
_, err := os.Stat(genDir)
if err != nil {
if os.IsNotExist(err) {
os.Mkdir(genDir, 0777) // Everyone can read write and execute
}
} inFilenameVideo := "./out/a24.h264"
inFilenameAudio := "./out/a24.aac"
outFilename := "./out/a24.mp4" _, err = os.Stat(inFilenameVideo)
if err != nil {
if os.IsNotExist(err) {
fmt.Println("create h264 file")
exec.Command("./lib/ffmpeg", "-i", "./resources/big_buck_bunny.mp4", "-vcodec", "copy", "-an", inFilenameVideo).Output()
}
} _, err = os.Stat(inFilenameAudio)
if err != nil {
if os.IsNotExist(err) {
fmt.Println("create aac file")
exec.Command("./lib/ffmpeg", "-i", "./resources/big_buck_bunny.mp4", "-acodec", "copy", "-vn", inFilenameAudio).Output()
}
} var ifmtCtxVideo, ifmtCtxAudio, ofmtCtx *libavformat.AVFormatContext
var packet libavcodec.AVPacket var inVideoIndex, inAudioIndex ffcommon.FInt = -1, -1
var outVideoIndex, outAudioIndex ffcommon.FInt = -1, -1
var frameIndex ffcommon.FInt = 0 var curPstVideo, curPstAudio ffcommon.FInt64T = 0, 0 var ret ffcommon.FInt = 0
var i ffcommon.FUnsignedInt = 0 var h264bsfc, aacbsfc *libavcodec.AVBitStreamFilterContext //打开输入视频文件
ret = libavformat.AvformatOpenInput(&ifmtCtxVideo, inFilenameVideo, nil, nil)
if ret < 0 {
fmt.Printf("can't open input video file\n")
goto end
} //查找输入流
ret = ifmtCtxVideo.AvformatFindStreamInfo(nil)
if ret < 0 {
fmt.Printf("failed to retrieve input video stream information\n")
goto end
} //打开输入音频文件
ret = libavformat.AvformatOpenInput(&ifmtCtxAudio, inFilenameAudio, nil, nil)
if ret < 0 {
fmt.Printf("can't open input audio file\n")
goto end
} //查找输入流
ret = ifmtCtxAudio.AvformatFindStreamInfo(nil)
if ret < 0 {
fmt.Printf("failed to retrieve input audio stream information\n")
goto end
} fmt.Printf("===========Input Information==========\n")
ifmtCtxVideo.AvDumpFormat(0, inFilenameVideo, 0)
ifmtCtxAudio.AvDumpFormat(0, inFilenameAudio, 0)
fmt.Printf("======================================\n") //新建输出上下文
libavformat.AvformatAllocOutputContext2(&ofmtCtx, nil, "", outFilename)
if ofmtCtx == nil {
fmt.Printf("can't create output context\n")
goto end
} //视频输入流
for i = 0; i < ifmtCtxVideo.NbStreams; i++ {
if ifmtCtxVideo.GetStream(i).Codecpar.CodecType == libavutil.AVMEDIA_TYPE_VIDEO {
inStream := ifmtCtxVideo.GetStream(i)
outStream := ofmtCtx.AvformatNewStream(nil)
inVideoIndex = int32(i) if outStream == nil {
fmt.Printf("failed to allocate output stream\n")
goto end
} outVideoIndex = outStream.Index if libavcodec.AvcodecParametersCopy(outStream.Codecpar, inStream.Codecpar) < 0 {
fmt.Printf("faild to copy context from input to output stream")
goto end
} outStream.Codecpar.CodecTag = 0 break
}
} //音频输入流
for i = 0; i < ifmtCtxAudio.NbStreams; i++ {
if ifmtCtxAudio.GetStream(i).Codecpar.CodecType == libavutil.AVMEDIA_TYPE_AUDIO {
inStream := ifmtCtxAudio.GetStream(i)
outStream := ofmtCtx.AvformatNewStream(nil)
inAudioIndex = int32(i) if outStream == nil {
fmt.Printf("failed to allocate output stream\n")
goto end
} outAudioIndex = outStream.Index if libavcodec.AvcodecParametersCopy(outStream.Codecpar, inStream.Codecpar) < 0 {
fmt.Printf("faild to copy context from input to output stream")
goto end
} outStream.Codecpar.CodecTag = 0 break
}
} fmt.Printf("==========Output Information==========\n")
ofmtCtx.AvDumpFormat(0, outFilename, 1)
fmt.Printf("======================================\n") //打开输入文件
if ofmtCtx.Oformat.Flags&libavformat.AVFMT_NOFILE == 0 {
if libavformat.AvioOpen(&ofmtCtx.Pb, outFilename, libavformat.AVIO_FLAG_WRITE) < 0 {
fmt.Printf("can't open out file\n")
goto end
}
} //写文件头
if ofmtCtx.AvformatWriteHeader(nil) < 0 {
fmt.Printf("Error occurred when opening output file\n")
goto end
} if USE_H264BSF != 0 {
h264bsfc = libavcodec.AvBitstreamFilterInit("h264_mp4toannexb")
}
if USE_AACBSF != 0 {
aacbsfc = libavcodec.AvBitstreamFilterInit("aac_adtstoasc")
}
for {
var ifmtCtx *libavformat.AVFormatContext
var inStream, outStream *libavformat.AVStream
var streamIndex ffcommon.FInt = 0 if libavutil.AvCompareTs(curPstVideo, ifmtCtxVideo.GetStream(uint32(inVideoIndex)).TimeBase, curPstAudio, ifmtCtxAudio.GetStream(uint32(inAudioIndex)).TimeBase) < 0 {
ifmtCtx = ifmtCtxVideo
streamIndex = outVideoIndex if ifmtCtx.AvReadFrame(&packet) >= 0 {
for {
inStream = ifmtCtx.GetStream(packet.StreamIndex)
outStream = ofmtCtx.GetStream(uint32(streamIndex)) if packet.StreamIndex == uint32(inVideoIndex) {
//Fix: No PTS(Example: Raw H.264
//Simple Write PTS
if packet.Pts == libavutil.AV_NOPTS_VALUE {
//write PTS
timeBase1 := inStream.TimeBase
//Duration between 2 frames
calcDuration := int64(libavutil.AV_TIME_BASE / libavutil.AvQ2d(inStream.RFrameRate))
//Parameters
packet.Pts = int64((float64(frameIndex) * float64(calcDuration)) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
packet.Dts = packet.Pts
packet.Duration = int64(float64(calcDuration) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
frameIndex++
} curPstVideo = packet.Pts
break
}
if ifmtCtx.AvReadFrame(&packet) >= 0 { } else {
break
}
}
} else {
break
}
} else {
ifmtCtx = ifmtCtxAudio
streamIndex = outAudioIndex if ifmtCtx.AvReadFrame(&packet) >= 0 {
for {
inStream = ifmtCtx.GetStream(packet.StreamIndex)
outStream = ofmtCtx.GetStream(uint32(streamIndex)) if packet.StreamIndex == uint32(inAudioIndex) {
//Fix: No PTS(Example: Raw H.264
//Simple Write PTS
if packet.Pts == libavutil.AV_NOPTS_VALUE {
//write PTS
timeBase1 := inStream.TimeBase
//Duration between 2 frames
calcDuration := int64(libavutil.AV_TIME_BASE / libavutil.AvQ2d(inStream.RFrameRate))
//Parameters
packet.Pts = int64((float64(frameIndex) * float64(calcDuration)) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
packet.Dts = packet.Pts
packet.Duration = int64(float64(calcDuration) / (libavutil.AvQ2d(timeBase1) * libavutil.AV_TIME_BASE))
frameIndex++
} curPstAudio = packet.Pts
break
}
if ifmtCtx.AvReadFrame(&packet) >= 0 { } else {
break
}
}
} else {
break
}
} //FIX:Bitstream Filter
if USE_H264BSF != 0 {
h264bsfc.AvBitstreamFilterFilter(inStream.Codec, "", &packet.Data, (*int32)(unsafe.Pointer(&packet.Size)), packet.Data, int32(packet.Size), 0)
}
if USE_AACBSF != 0 {
aacbsfc.AvBitstreamFilterFilter(outStream.Codec, "", &packet.Data, (*int32)(unsafe.Pointer(&packet.Size)), packet.Data, int32(packet.Size), 0)
} //Convert PTS/DTS
packet.Pts = libavutil.AvRescaleQRnd(packet.Pts, inStream.TimeBase, outStream.TimeBase, libavutil.AV_ROUND_NEAR_INF|libavutil.AV_ROUND_PASS_MINMAX)
packet.Dts = libavutil.AvRescaleQRnd(packet.Dts, inStream.TimeBase, outStream.TimeBase, libavutil.AV_ROUND_NEAR_INF|libavutil.AV_ROUND_PASS_MINMAX)
packet.Duration = libavutil.AvRescaleQ(packet.Duration, inStream.TimeBase, outStream.TimeBase)
packet.Pos = -1
packet.StreamIndex = uint32(streamIndex) //write
if ofmtCtx.AvInterleavedWriteFrame(&packet) < 0 {
fmt.Printf("error muxing packet")
break
} packet.AvPacketUnref()
} //Write file trailer
ofmtCtx.AvWriteTrailer() if USE_H264BSF != 0 {
h264bsfc.AvBitstreamFilterClose()
}
if USE_AACBSF != 0 {
aacbsfc.AvBitstreamFilterClose()
} end:
libavformat.AvformatCloseInput(&ifmtCtxVideo)
libavformat.AvformatCloseInput(&ifmtCtxAudio)
if ofmtCtx != nil && ofmtCtx.Oformat.Flags&libavformat.AVFMT_NOFILE == 0 {
ofmtCtx.Pb.AvioClose()
} ofmtCtx.AvformatFreeContext()
fmt.Println("-----------------------------------------")
_, err = exec.Command("./lib/ffplay.exe", outFilename).Output()
if err != nil {
fmt.Println("play err = ", err)
}
}

2023-03-24:音视频mp3和h264混合(muxer)编码为mp4,用go语言编写。的更多相关文章

  1. 音视频处理之H264编码标准20170906

    一. H264基础概念 1.名词解释 场和帧 :    视频的一场或一帧可用来产生一个编码图像.在电视中,为减少大面积闪烁现象,把一帧分成两个隔行的场. 片:             每个图象中,若干 ...

  2. 第六十篇、音视频采集硬编码(H264+ACC)

    使用 AVCaptureSession进行实时采集音视频(YUV.),编码 通过AVCaptureVideoDataOutputSampleBufferDelegate获取到音视频buffer- 数据 ...

  3. 音视频通讯QoS技术及其演进

    利用多种算法和策略进行网络传输控制,最大限度满足弱网场景下的音视频用户体验. 良逸|技术作者 01 什么是QoS?音视频通讯QoS是哪一类? QoS(Quality of Service)是服务质量的 ...

  4. HTML5_音视频标签 <audio> 和 <video>

    HTML5_音视频标签 <audio> 和 <video> audio 和 video 都是 inline行内元素 如果浏览器支持,则不显示标签文本 IE8 不支持 audio ...

  5. 手机Android音视频採集与直播推送,实现单兵、移动监控类应用

    最新手机採集推送直播监控以及EasyDarwin开源流媒体平台的版本号及代码: EasyDarwin 开源流媒体云平台:https://github.com/easydarwin EasyClient ...

  6. 音视频编解码问题:javaCV如何快速进行音频预处理和解复用编解码(基于javaCV-FFMPEG)

    前言: 前面我用了很多章实现了javaCV的基本操作,包括:音视频捕捉(摄像头视频捕捉和话筒音频捕捉),推流(本地音视频或者摄像头话筒混合推流到服务器),转流(rtsp->rtmp),收流(录制 ...

  7. 【FFMPEG】各种音视频编解码学习详解 h264 ,mpeg4 ,aac 等所有音视频格式

    目录(?)[-] 编解码学习笔记二codec类型 编解码学习笔记三Mpeg系列Mpeg 1和Mpeg 2 编解码学习笔记四Mpeg系列Mpeg 4 编解码学习笔记五Mpeg系列AAC音频 编解码学习笔 ...

  8. 全志Tina_dolphin播放音视频裸流(h264,pcm)验证

    最近在验证tina对裸流音视频的支持,主要指h264视频裸流及pcm音频裸流. 在原始sdk中有针对很多video和audio类型的parser,但就是没有找到pcm和h264的parser,所以需要 ...

  9. RTP协议解析及H264/H265 音视频RTP打包分析

    一 概述 实时传输协议(Real-time Transport Protocol或简写RTP)是一个网络传输协议,它是由IETF的多媒体传输工作小组1996年在RFC 1889中公布的. RTP协议详 ...

  10. Android音视频开发(1):H264 基本原理

    前言 H264 视频压缩算法现在无疑是所有视频压缩技术中使用最广泛,最流行的.随着 x264/openh264 以及 ffmpeg 等开源库的推出,大多数使用者无需再对H264的细节做过多的研究,这大 ...

随机推荐

  1. 韦东山005_ARM裸机1期加强版

    005_ARM裸机1期加强版(又叫新1期,151节,23节免费,已完结)\新1期视频(151节,23节免费) 第006课开发板熟悉与体验(6节,免费) 第001节_开发板部件介绍与串口连接(免费) 如 ...

  2. java代码审计-SpEL表达式注入

    0x01 前言 Spring Expression Language(简称 SpEL)是一种功能强大的表达式语言.用于在运行时查询和操作对象图:语法上类似于Unified EL,但提供了更多的特性,特 ...

  3. 字符集编码cp936、ANSI、UNICODE、UTF-8、GB2312、GBK、GB18030、DBCS、UCS

    一直对字符的各种编码方式懵懵懂懂,什么ANSI.UNICODE.UTF-8.GB2312.GBK.DBCS.UCS--是不是看的很晕,假如您细细的阅读本文你一定可以清晰的理解他们.Let's go!  ...

  4. python内置函数len()

    len() len()函数用于返回对象(字符串.元组.列表和字典等)的长度或元素个数 len()函数的语法: len(s) 代码示例 print(len(range(10))) print(len([ ...

  5. mysql统计特定字符串出现次数

    其中'test'为原始字符串,'t'为特定字符串   SELECT floor((char_length('test') - char_length(replace('test', 't', '')) ...

  6. Linux & 标准C语言学习 <DAY1>

    Linux系统简单介绍:     BCPL->New B->C->UNIX->Minix->Linux->gcc     美国贝尔实验室 1968     Linu ...

  7. 一款基于js/jquery标签拖拽排序小组件

    这是一个基于jQuery写的拖拽小组件,写了大概两三天,刚好可以在前端方面练练手.拖拽原理是使用绝对定位+鼠标元素位置实现. GitHub地址:https://water1996.github.io/ ...

  8. Go语言:利用 TDD 测试驱动开发帮助理解数组与动态数组(切片)的区别

    Array VS Slice 数组允许你以特定的顺序在变量中存储相同类型的多个元素. 对于数组来说,最常见的就是迭代数组中的元素. 我们创建一个 Sum 函数,它使用 for 来循环获取数组中的元素并 ...

  9. 使用golang+antlr4构建一个自己的语言解析器(一)

    Antlr4 简介 ANTLR(全名:ANother Tool for Language Recognition)是基于LL(*)算法实现的语法解析器生成器(parser generator),用Ja ...

  10. [C++STL教程]1.vector容器是什么?实用教程来啦!超简单易懂,拿来就用

    C++与传统的C语言有一个很大的区别,就是新增了标准模板库 STL(Standard Template Library),它是 C++ 标准库的一部分,不需要单独安装,只需要 #include 对应的 ...