目录 1. gmm-init-mono 模型初始化 2. compile-train-graghs 训练图初始化 3. align-equal-compiled 特征文件均匀分割 4. gmm-acc-stats-ali 累积模型重估所需数据 5. gmm-sum-accs 并行数据合并 6. gmm-est 声音模型参数重估 7. gmm-boost-silence 模型平滑处理 8. gmm-align-compiled 特征重新对齐 9. train_mono.sh 整体流程详解 转载注明…
在Kaldi中,单音素GMM的训练用的是Viterbi training,而不是Baum-Welch training.因此就不是用HMM Baum-Welch那几个公式去更新参数,也就不用计算前向概率.后向概率了.Kaldi中用的是EM算法用于GMM时的那三个参数更新公式,并且稍有改变.  Baum-Welch算法更新参数时,因为要计算前向后向概率,很费时间,因此使用Viterbi Training作为Baum-Welch算法的近似.在Baum-Welch算法中,计算前向后向概率时,要用到所有…
转自:http://blog.csdn.net/zjm750617105/article/details/55211992 对于每个类别的GMM有几种思路: 第一是将所有训练数据按类别分开,每类的数据训练一个GMM模型 第二是将所有的数据训练一个UBM模型,然后将训练数据按类别分开,用MAP去训练每个类别的GMM(对角UBM的MAP貌似kaldi 没有) 第三就是将所有的数据训练一个UBM模型,然后不做MAP,直接用训好的UBM所GMM的初始值,然后将所有训练数据按类别分开,训练三个GMM模型(…
选自:http://maotong.blog.hexun.com/6204849_d.html 苏统华 哈尔滨工业大学人工智能研究室 2006年10月30日 声明:版权所有,转载请注明作者和来源 该系统能够识别连续说出的数字串和若干组姓名.建模是针对子词(sub-word, eg. 音素),具有一定的可扩充性.当加入一个新名字时,只需修改发音词典和任务语法即可.模型为连续混合高斯输出,运用语音决策树聚类形成的绑定状态式三音素. 2. 创建单音素HMM模型 涉及创建一系列单高斯单音素HMM的过程.…
我们常说的 AI 通用能力往往不针对具体的行业应用,而是主要解决日常或者泛化的问题,很多技术企业给出的方案是通用式的,比如通用文字识别,无论识别身份证.驾驶证.行驶证等,任何一张图片训练后的模型都会尽可能去识别文字内容. 正常 AI 模型开发过程包括数据标注,模型训练,模型部署几个流程,但是不同应用.不同企业业务场景的不同,在开发需求上会有差异,包括业务方向.预算.发展阶段.技术基础等差异,都会导致企业需要不同的技术细节和部署方式.在具体行业领域中,会增加技术选型.模型匹配等环节.这个时候,高效…
ML.NET 版本 API 类型 状态 应用程序类型 数据类型 场景 机器学习任务 算法 Microsoft.ML 1.5.0 动态API 最新 控制台应用程序和Web应用程序 图片文件 图像分类 基于迁移学习的TensorFlow模型再训练进行图像分类 DNN架构:ResNet.InceptionV3.MobileNet等 问题 图像分类是深度学习学科中的一个常见问题.此示例演示如何通过基于迁移学习方法训练模型来创建您自己的自定义图像分类器,该方法基本上是重新训练预先训练的模型(如Incept…
前言 第一次写博客,有点紧张和兴奋.废话不多说,直接进入正题.如果你渴望使你的电脑能够进行人脸识别:如果你不想了解什么c++.底层算法:如果你也不想买什么树莓派,安装什么几个G的opencv:如果你和我一样是个还没入门的小白,但是想体验一下人脸识别的魅力.那么恭喜你,这篇文章就是为你准备的.让我们开始吧! 一.需要准备的材料 1.一台可以联网的有摄像头的电脑(手动滑稽). 2.python3.7的安装包 二.Python3.7及其第三方包的安装 1.Python3.7的安装 关于python3.…
前言 4 月热播的韩剧<王国>,不知道大家有没有看?我一集不落地看完了.王子元子出生时,正逢宫内僵尸作乱,元子也被咬了一口,但是由于大脑神经元尚未形成,寄生虫无法控制神经元,所以医女在做了简单处理后,判断不会影响大脑.这里提到了人脑神经元,它也是 AI 神经网络的研究起源,具体展开讲讲. 人脑中总共有 860 亿个神经元,其中大脑皮层有 160 亿个神经元.大脑皮层的神经元数量决定了动物的智力水平,人的大脑皮层中神经元数量远高于其他物种,所以人类比其他物种更聪明.大象的脑子总共有 2570 亿…
0. 引子 在训练轻量化模型时,经常发生的情况就是,明明 GPU 很闲,可速度就是上不去,用了多张卡并行也没有太大改善. 如果什么优化都不做,仅仅是使用nn.DataParallel这个模块,那么实测大概只能实现一点几倍的加速(按每秒处理的总图片数计算),不管用多少张卡.因为卡越多,数据传输的开销就越大,副作用就越大. 为了提高GPU服务器的资源利用率,尝试了一些加速的手段. 基于Pytorch1.6.0版本实现,官方支持amp功能,不再需要外部apex库: 此外比较重要的库是Dali. 梳理了…
一个高精度AI模型离不开大量的优质数据集,这些数据集往往由标注结果文件和海量的图片组成.在数据量比较大的情况下,模型训练周期也会相应加长.那么有什么加快训练速度的好方法呢? 壕气的老板第一时间想到的通常是提升算力,增加资源. 如果足够有钱的话,基本不需要再继续看其他解决方案了. 但大多数情况下,面对昂贵的算力资源,我们不可能无限增加的.那在花了大价钱买到了有限资源的情况下,我们还可以通过什么方式加快模型训练,提高资源利用率呢? 本文将为大家介绍的就是 iGear 高性能缓存加速方案,我们先看一张…