Sigmoid非线性激活函数,FM调频,胆机,HDR的意义
前几天家里买了个二手车子,较老,发现只有FM收音机,但音响效果不错,车子带蓝牙转FM,可以手机蓝牙播放音乐,但经过几次转换以及对FM的质疑,所以怀疑音质是否会剧烈下降,抱着试试的态度放了一个手机上的音乐,结果感动的流泪了,为什么以前手机带的高保真耳机中遗失了那么多精彩内容,高保真音响,高保真功放.....为何不敌即将淘汰的车载的FM...
记得中学的时候经常看电子类书籍,对各种音响电路都很着迷,那是后流行高保真这一概念,各种信号补偿带通滤波反馈控制算法,就为了让声音能够真实的还原出来,特别鄙视那些玩胆机的人,认为他们不懂理论,只是固执与迷信,后来学习神经网络知道了人类神经元的Sigmoid激活函数,但不慎理解,认为这是人类感官系统的缺陷,工作在非线性的模式分类中将失去认识真实世界的能力。
由于FM带来的震撼,我不得不对以前学习过的人类神经元原理做出新的认识,神经元对信号强度做收集和分类,其分类的边界控制由激活函数来确定,Sigmoid激活函数由三部分工作区域组成。
第一部分是在正常信号输入的线性工作区,输入信号的强度与模式分类线性相关,意即我们人类可以准确识别出信号的物理强度,对信号的变化很敏感。
第二部分则是在较弱和较强的信号输入的非线性工作区,这个区间的信号在做模式分类时人类则不能准确识别信号的物理强度,10倍物理强度差别的信号对于我们来讲可能差别微乎其微,仅仅能识别出微弱的差别。
第三部分是超过神经元传感器工作阈值的截止区,这个区域无论信号强度如何变化,我们都将不能区别出其强度差别。
接下来看看FM做了什么,他为何将Mp3音乐中一些消失殆尽的场景再次还原出来,让我的耳朵变得年轻了。
上图是FM调频器件变容二极管的振幅频率特性曲线(没有找到直接的图片),这个图说明什么呢,他说明小功率信号可以获得更多的增益,而大功率信号则被抑制,结合人类感知Sigmoid激活函数来看,其意义就是工作在非线性工作区微弱的不能敏感体会到的细节音乐拉进可以敏感识别的Sigmoid线性工作区,同样将声音大不能体现其变化细节的音乐也拉近Sigmoid线性工作区,因此经过FM非线性调频后,我们将获得饱满的声场,这将不再是迷信。
同样具备非线性放大的功放的还有胆机,为什么很多是前胆后石,原因是胆做了非线性放大(失真变换),将声场变换到Sigmoid线性工作区,之后再交给石机做高保真(线性)的功率放大(胆机电流小,无法做功率推动)。
如果你对声音不敏感,那么你应该对HDR以及超级夜景图片敏感吧,HDR图片将高动态范围中感光较强的信号做抑制(降低曝光度),将暗光信号微弱的信号做加强曝光,然后将两种信号混合得到人眼能够观察到细节的强度范围上来。
因此FM 胆机相当于音频领域的HDR,由于神经元的Sigmoid激活特性,实际上保真对于人类感官来讲意义并不是太大了,能够通过失真变化得到更多的场景内容则变得更加有意义。
Sigmoid非线性激活函数,FM调频,胆机,HDR的意义的更多相关文章
- 树莓派上使用Pi-FM-RDS工具打造FM调频电台
安装Pi-FM-RDS 安装依赖.sudo apt-get install libsndfile1-dev 克隆Pi-FM-RDS到本地.git clone https://github.com/Ch ...
- 如何高效的通过BP算法来训练CNN
< Neural Networks Tricks of the Trade.2nd>这本书是收录了1998-2012年在NN上面的一些技巧.原理.算法性文章,对于初学者或者是正在学习NN的 ...
- deep learning 自编码算法详细理解与代码实现(超详细)
在有监督学习中,训练样本是有类别标签的.现在假设我们只有一个没有带类别标签的训练样本集合 ,其中 .自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值,比如 .下图是一个自 ...
- 深度学习原理与框架-神经网络架构 1.神经网络构架 2.激活函数(sigmoid和relu) 3.图片预处理(减去均值和除标准差) 4.dropout(防止过拟合操作)
神经网络构架:主要时表示神经网络的组成,即中间隐藏层的结构 对图片进行说明:我们可以看出图中的层数分布: input layer表示输入层,维度(N_num, input_dim) N_num表示输 ...
- 深度学习的激活函数 :sigmoid、tanh、ReLU 、Leaky Relu、RReLU、softsign 、softplus、GELU
深度学习的激活函数 :sigmoid.tanh.ReLU .Leaky Relu.RReLU.softsign .softplus.GELU 2019-05-06 17:56:43 wamg潇潇 阅 ...
- CTR预估算法之FM, FFM, DeepFM及实践
https://blog.csdn.net/john_xyz/article/details/78933253 目录目录CTR预估综述Factorization Machines(FM)算法原理代码实 ...
- 因子分解机 FM
特征组合 人工方式的特征工程,通常有两个问题: 特征爆炸 大量重要的特征组合都隐藏在数据中,无法被专家识别和设计 针对上述两个问题,广度模型和深度模型提供了不同的解决思路. 广度模型包括FM/FFM等 ...
- ReLu(Rectified Linear Units)激活函数
论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper) 起源:传统激活函数.脑神经元激活频率研究.稀疏激活性 传统Sigmoid系激活函数 传 ...
- [DeeplearningAI笔记]神经网络与深度学习3.2_3.11(激活函数)浅层神经网络
觉得有用的话,欢迎一起讨论相互学习~Follow Me 3.2 神经网络表示 对于一个由输入层,隐藏层,输出层三层所组成的神经网络来说,输入层,即输入数据被称为第0层,中间层被称为第1层,输出层被称为 ...
随机推荐
- H3C 链路聚合分类
- Linux 内核总线属性
几乎 Linux 驱动模型中的每一层都提供一个添加属性的接口, 并且总线层不例外. bus_attribute 类型定义在 <linux/device.h> 如下: struct bus_ ...
- Linux 内核控制 urb
控制 urb 被初始化几乎和 块 urb 相同的方式, 使用对函数 usb_fill_control_urb 的 调用: void usb_fill_control_urb(struct urb *u ...
- Linux 创建和销毁 urb
struct urb 结构在驱动中必须不被静态创建, 或者在另一个结构中, 因为这可能破坏 USB 核心给 urb 使用的引用计数方法. 它必须使用对 usb_alloc_urb 函数的调用而被创 建 ...
- Linux 内核 NuBus 总线
另一个有趣的, 但是几乎被忘记的, 接口总线是 NuBus. 它被发现于老的 Mac 计算机(那 些有 M68K CPU 家族的). 所有的这个总线是内存映射的(象 M68K 的所有东西), 并且设备 ...
- Node.js入门-知识整理
目的:使用Node.js实现文件上传并将上传的文件显示到浏览器中 基本工具:Node.js,在windows下需要下载cygwin64来运行shell命令 文件:服务器模块.请求路由模块.请求处理程序 ...
- codeforces 540E 离散化技巧+线段树/树状数组求逆序对
传送门:https://codeforces.com/contest/540/problem/E 题意: 有一段无限长的序列,有n次交换,每次将u位置的元素和v位置的元素交换,问n次交换后这个序列的逆 ...
- hibernate映射-继承映射
对于面向对象的程序设计语言而言,继承和多态是两个最基本的概念.Hibernate的继承映射可以理解成持久化类之间的继承关系.例如:人和学生之间的关系.学生继承人,可以认为学生是一个特殊的人,如果对人进 ...
- java 使用 morphia 存取枚举为值
源码 https://github.com/zhongchengyi/zhongcy.demos/tree/master/mongo-morphia-demo 前言 morphia是java 使用or ...
- Java迭代器源码解析
private class Itr implements Iterator<E> { int cursor; // 调用next方法返回的元素的索引 int lastRet = -1; / ...