SciTech-BigDataAIML-BackPropagation反向传播:

“政治经济驱动”智慧星球城市的“BigData+Bitstream”

“数学驱动”的“人+模型”

Org组织

Computing Graph: 计算图

  • Model模型四阶段:

    • Research研究:

      源于一个Requirement需求,

      转化为一系列的 Question/Problem问题,

      明确好 Certainty + Uncertainty,

      确定Goals+Strategies,

      制定Plans: Data Collection, Available List of Models, Design of Experiments

      执行Research + Plans:

      • Experiment 的 要点,流程化规范化
      • 选定 Standard Dataset标准数据集,
      • 总体筛选出最佳的 Models,统计概率,
    • Design设计: 确定最佳参数, 在研究选出的最佳模型上,确定 最佳模型parameters

    • Implement实现: 将“概念模型”工程化为“量产模型”

    • Application应用: 将“量产模型”部署应用“持续更新升级”

  • Framework之上的“设计实现模型”,

    如Google的Tensorflow, Meta的PyTorch, 提供并实现许多的Operators(标准组件),

    Model Developers可对"积木标准件"拼积木, 得到"套路化"的"模型"的任意函数。
  • Computing Graph: 计算图;
    • 计算图上有"搭积木"的“Operators(算子, 标准件), 及相互之间连接的“IO张量网络”;
    • Auto Gradient Machine, 自动梯度机, 涉及到本文的Backpropagation反向传播,

Backpropagation反向传播

Analysis of Mathmatics(数学分析学):

Measure Theory, 求Gradient偏导数,Integral积分, 多元

Advanced Linear Algebra 与 Matrix Analysis; 设计Tensor,Fields, Vector Space and Operations,

解方程组,

Probability + Statistics 概率论与统计学,将 Continues连续 和 Discrete离散的模型;

标准的

实现上有:Scipy, Numpy, Pandas, Matplotlib, Python, Anaconda, PyData,...

BP(Backpropagation)发的概念

BP(Backpropagation)依赖的是数学领域的PDE(Partial Differential Equation偏微分方程)

由GPT、Mid-Journey、AlphaFold到各种大模型,几乎所有的机器学习系统, 都有何共同点?

尽管他们为解决不同的问题而设计,有完全不同的架构,并在不同的数据集(库)上进行训练;

但有一些东西, 将所有这些不同系统联系在一起。在所有的这些不同模型系统,

都有一种BP(Backpropagation)算法, 在训练程序模型内核运行.

BP(Backpropagation)是整个机器学习领域的基础. 所以深入研究就特别重要.

令人惊讶的是,人工神经网络有学习能力的原因,

也正是使他们与人类大脑的本质差异,和与生物学不相融的地方。

本视频是一个包含两部分的系列, 的第一部分. 今天探讨:

WHAT: 人工智能领域的反向传播概念,并直观的了解他是什么,

WHY: 为何有效,

HOW: 如何从无到有的构建这个算法,

BP(Backpropagation)的历史和里程碑

尽管backpropagation有变革的影响,但谁首先发明了BP却有多个版本:

  • 因为BP用到的微分概念,最早可以追溯到17世纪的G.W. Leibniz(1676,莱布尼茨);
  • BP算法的第一个现代表述,至今仍在使用,是由Seppo Linnainmaa在1970年发表的硕士论文(TAYLOR EXPANSION OF THE ACCUMULATED ROUNDING ERROR)提出的, 但是他并没有明确提到任何神经网络.
  • 另一个重要里程碑在1986年:
    • David Rumelhart, Geoffrey Hinton, Ronald Williams三人共同发布一篇名为"Lonely Representations by Backpropagating Errors"(反向传播的单独表示)的论文, 他们将BP算法应用于Multi-Layered Perceptrons(多层感知器,神经网络的一种); 并首次证明利用BP算法进行模型训练, 可使神经网络成功解决问题, 并在Hidden Layers(隐藏神经元层)开发出有意义的表示. 捕捉任务中的重要数据规律性.

    • 值得一提的是, 2024的诺贝尔物理学奖就颁给David Rumelhart, Geoffrey Hinton。
    • 随着这一领域的发展, 研究人员大幅扩展过这些模型, 并引入各种架构;

      训练基于BP算法的基本原则基本没有改变.

BP(反向传播)神经网络的概念构建.

为全面了解训练网络的确切含义,我们才尝试由头开始,

构建BP(反向传播)神经网络的概念.

导引问题:假设你搜集到一组"随机点序列", 要用最优函数拟合:

  1. 可用"数形结合"的方法进行直观的预先分析“随机点序列”;

    将“随机点序列”描绘作图在“平面直角坐标系”上观察;

  2. 需要设置一组Hypothesis(假设)预筛选无限多的"可选拟和函数"。例如:

    先用MSE(Mean Square Error)对无限多的可选“光滑拟和曲线”进行总体拟和精度评价估计(\(\large \mu均值, \ \sigma 标准差\));

    筛选出的"光滑拟和曲线"进行函数式拟和:

    • 可用"高等代数学"的"eigen value decomposition"(主成分分解)将“离散点序列”分解为"eigen value matrix"
    • 可用"数学分析学"的"泰勒公式拟和",Taylor拟和,的系数向量,做为参数;
    • 可用"概率统计学"的"分布函数"进行"离散拟和", 复杂曲线用"分段函数"拟和,每一段都是基本的Distribution;
    • 可用"复分析"及"Fourier Transform"进行"傅立叶函数拟和", 将Time Domian的光滑曲线分解为Freq Domain与一组参数;
    • ...

    可为"目标拟和函数"设定一组"预筛选条件":

    • 选用"数学分析学"最经典的"Taylor Equation Approxmation"

      • 确定"Taylor拟和"要用到的"最小最高幂次数"(\(\large 波峰数+波谷数+2\))

        例如对上面的图例,"Taylor拟和"的"最小最高幂次数"可设置为5

      • 将"目标拟和函数"设定为“Taylor多项式形式”:

        \(\large \begin{array}{ll} y=f(x) & = \overset{\rightarrow}{K} \cdot \overset{\rightarrow}{X^T} \\
        &= (k_0, k_1, k_2, k_3, k_4, k_5) \cdot (x^0, x^1, x^2, x^3, x^4, x^5)^T \\
        &= k_0 + k1_x^1+ k_2x^2+ k_3x^3+ k_4x^4+ k_5x^5 \\
        \end{array}\)

        接着的工作就是确定参数向量\(\large K\): $\large (k_0, k_1, k_2, k_3, k_4, k_5) $

      • \(\large Measure\ Similarity\) 度量相似度 OR \(\large Embedding\)(嵌入):

        任意两点,度量这两点的Similarity:

        KL Divergence, Euclidian Distance, Cosine Similarity, ...

      • Loss Function(Relation + Quantity, 量化"拟和质量"为一"数值"):

        用一个Loss Function表达式(用Similarity和多项式表示)建立数学模型;



        "MSE(Mean Square Error,均方损失函数)"是最经典的(写入各大主流高等教育的数学教科书)之一.

        • 采集Sample(有代表性, 样本点足够多): 假设样本容量为n, 则Sample为:

          \(\large X =\{(x_1, y_1),\ (x_2, y_2),\ \cdots\ (x_n, y_n)\}\)
        • 对每个采样点\(\large (x_i, y_i)\),计算其方差值\(\large S_{x_i}\)( 真实值(\(\large y_i\) 与 "拟和函数"在\(\large x_i\)处的函数值\(\large LF(x_i)\) 的差值(Error)的平方(Square)数:

          \(\large S_{x_i} = (LF(x_i) - y_i)^2\)
        • 计算"拟和质量"总量化数值:加和样本\(\large X\) 的全部采样点方差值

          \(\large \begin{array}{rl} MSE_{X} &= \overset{n}{\underset{i=1}{\sum}} {S_{x_i}} = \overset{n}{\underset{i=1}{\sum}} {(LF(x_i) - y_i)^2},\ where,\\
          X &=\{(x_1, y_1),\ (x_2, y_2),\ \cdots\ (x_n, y_n)\} \\
          \end{array}\)



          常用的还有:
        • "KL Divergence"(两个Distribution的),
        • "Euclidian Distance(距离)",
        • "Cosine Similarity(距离+角度)",
        • 其它
      • s

http://krz.github.io/backpropagation-explained/

Backpropagation from the ground up:

In this video we will introduce the core algorithm powering all of Machine learning and build it from first principles

SciTech-BigDataAIML-BP(BackPropagation反向传播)网络:“政经驱动”智慧星球城市的“BigData+Bitstream”+Org组织+“数学驱动”的“人+模型”的更多相关文章

  1. 神经网络训练中的Tricks之高效BP(反向传播算法)

    神经网络训练中的Tricks之高效BP(反向传播算法) 神经网络训练中的Tricks之高效BP(反向传播算法) zouxy09@qq.com http://blog.csdn.net/zouxy09 ...

  2. 深度学习课程笔记(三)Backpropagation 反向传播算法

    深度学习课程笔记(三)Backpropagation 反向传播算法 2017.10.06  材料来自:http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLDS1 ...

  3. [NN] 对于BackPropagation(BP, 误差反向传播)的一些理解

    本文大量参照 David E. Rumelhart, Geoffrey E. Hinton and Ronald J. Williams, Learning representation by bac ...

  4. Backpropagation反向传播算法(BP算法)

    1.Summary: Apply the chain rule to compute the gradient of the loss function with respect to the inp ...

  5. 手写BP(反向传播)算法

    BP算法为深度学习中参数更新的重要角色,一般基于loss对参数的偏导进行更新. 一些根据均方误差,每层默认激活函数sigmoid(不同激活函数,则更新公式不一样) 假设网络如图所示: 则更新公式为: ...

  6. python机器学习——BP(反向传播)神经网络算法

    背景与原理: BP神经网络通常指基于误差反向传播算法的多层神经网络,BP算法由信号的前向传播和反向传播两个过程组成,在前向传播的过程中,输入从输入层进入网络,经过隐含层逐层传递到达输出层输出,如果输出 ...

  7. BP神经网络反向传播之计算过程分解(详细版)

    摘要:本文先从梯度下降法的理论推导开始,说明梯度下降法为什么能够求得函数的局部极小值.通过两个小例子,说明梯度下降法求解极限值实现过程.在通过分解BP神经网络,详细说明梯度下降法在神经网络的运算过程, ...

  8. [CS231n-CNN] Backpropagation(反向传播算法)

    课程主页:http://cs231n.stanford.edu/ 上节讲到loss function: 引出了求导数使得loss function减小. -Back Propagation :梯度下降 ...

  9. [2] TensorFlow 向前传播算法(forward-propagation)与反向传播算法(back-propagation)

    TensorFlow Playground http://playground.tensorflow.org 帮助更好的理解,游乐场Playground可以实现可视化训练过程的工具 TensorFlo ...

  10. 浅层神经网络 反向传播推导:MSE softmax

    基础:逻辑回归 Logistic 回归模型的参数估计为什么不能采用最小二乘法? logistic回归模型的参数估计问题不能“方便地”定义“误差”或者“残差”. 对单个样本: 第i层的权重W[i]维度的 ...

随机推荐

  1. 使用PowerShell开发脚本程序进行批量SVN提交

    使用PowerShell开发脚本程序进行批量SVN提交 随着软件开发的不断进步,版本控制系统如Subversion (SVN) 成为了团队协作和代码管理的重要工具.当需要一次性提交大量文件时,手动操作 ...

  2. GPUStack v0.5:模型Catalog、图生图功能上线,多维优化全面提升产品能力与使用体验

    GPUStack 是一个专为运行 AI 模型设计的开源 GPU 集群管理器,致力于支持基于任何品牌的异构 GPU 构建统一管理的算力集群.无论这些 GPU 运行在 Apple Mac.Windows ...

  3. TypeScript+Vue3

    TypeScript Any 类型 和 unknown 顶级类型 1.没有强制限定哪种类型,随时切换类型都可以 我们可以对 any 进行任何操作,不需要检查类型 2.声明变量的时候没有指定任意类型默认 ...

  4. SpringMVC框架第一天

    目录 SpringMVC的基本概念 三层架构和MVC 三层架构 MVC模型 MVC概述 SpringMVC是什么 SpringMVC在三层架构的位置 SpringMVC的优势 SpringMVC的入门 ...

  5. 【经验】Win11的Ubuntu虚拟机启动虚拟化|此平台不支持虚拟化的 Intel VT-x/EPT(方案汇总+自己的解决方案)

    我开虚拟化是为了在虚拟机中运行VirtualBox,如果不开CPU虚拟化,会报错VBoxManage error: VT-x is not available (VERR_VMX_NO_VMX). 文 ...

  6. 信息资源管理综合题之“什么是CA 和 什么是数字证书 和 CA实施认证服务的技术基础是什么 和 补全CA签名加密流程图”

    一.公钥密码体系和RSA算法是密钥管理.身份认证.防抵赖篡改等安全问题的理论基础和技术保障.题图是运用RSA算法用户A向用户B传送加密信息并进行数学签名的过程.其中A.B的公钥分别为GA.GB,A.B ...

  7. C#之CultureInfo.InvariantCulture

    number.ToString(CultureInfo.InvariantCulture) 是 C# 中一个重要的文化设置(Culture)相关的字符串格式化方法,它的作用是 确保数字在不同系统/语言 ...

  8. C#之结构

    结构是用户定义的数据类型,与类非常相似,它们有数据成员和函数成员,但与类最重要的区别是:类是引用类型,而结构是值类似,结构是隐式密封的,这意味这它们不能被派生,所以结构类型不能为null,两个结构变量 ...

  9. 赛前十天——打印输入字符串的全排列&&cls(java实现)

    package javaPractice; import java.util.Scanner; public class Contest13 { public static void main(Str ...

  10. WindowsPE文件格式入门01.PE头

    https://www.bpsend.net/thread-288-1-2.html​ portable excute 可移植,可执行的文件(exe dll) 能够解析的文件,其内部都是有格式的,不是 ...