回顾

紧接着上篇, 整到了, MES的公式和代码的实现.

\(MSE = \frac {1}{n} \sum\limits_{i=1}^n (y_i - \hat y_i)^2\)

n 表示样本数, 这里为 4

y 表示要预测的变量, 这里是 性别

训练的约束, 就是使得 MSE 的值尽可能小. -> 求解参数

MSE 的工作机制, 举个栗子, 假设网络的纵输出是 0, 也就是预测所有的 小伙伴都是 妹子.

姓名 \(y_i\) (真实值) \(\hat y_i\) (预测值) \((y_i - \hat y_i)\)
youge 1 0 1
share 1 0 1
naive 0 0 0
beyes 0 0 0

\(MSE = \frac {1}{4} (1 + 1 + 0 + 1) = 0.5\)

BP算法本质 - 求导链式法则

现在继续...

始终要明确我们的目标: 最小化神经网络的损失 这个损失呢, 本质也就是一个关于 权重和偏置 的函数

如图所示:

则本例的损失函数可以这样参数化表示为:

\(L(w_1, w_2, w_3, w_4, w_5, w_6, b1, b_2, b_3)\)

现在来考虑对 w 进行优化, 假设要优化 \(w_1\) (即当 \(w_1\) 变化时, L 会如何变化), 也就是: \(\frac {\partial L}{\partial w_1}\)

为了简化一波问题, 假设数据集中就只有一个兄弟.

姓名 \(y_1\) \(\hat y_1\) (\(y_1 -\hat y_1\))
youge 1 0 1

则此时的 MSE = \((y_1 -\hat y_1)^2 = (1- \hat y_1)^2\)

要计算 \(\frac {\partial L}{\partial w_1}\) 根据网络的 反向 方向 (输出 -> 输入), 对应选取相应的中间变量, 这样能求出来呀. 根据求导链式法则:

\(\frac {\partial L}{\partial w_1} = \frac {\partial L}{\partial \hat y_1} * \frac {\partial \hat y_1}{\partial w_1}\)

由本例数据, 已知 \(L = (1- \hat y_1)^2\) , 上面公式的第一部分就可以求出来了:

\(\frac {\partial L} {\partial y_1} = \frac {\partial (1- \hat y_1)^2} {\partial y_1} = -2(1- \hat y_1)\)

然后是 第二部分 \(\frac {\partial \hat y_1}{\partial w_1}\) 观察图中的相关变量, 可看到 \(h_1, h_2, o_1\) 分别表示该神经元的输出, 即:

\(\hat y_1 = o_1 = f(w_5 h_1 + w_6 h_2 + b_3)\)

继续向后传播....

而我们关心的是 \(w_1\) , 看图中的线路就可知, w1 跟 h2 是没有关系的, 只跟 h1有关, 于是, 再来一波 求导链式法则

$\frac {\partial \hat y_1}{\partial w_1} = \frac {\partial \hat y_1} {\partial h_1} * \frac {\partial h_1}{\partial w_1} $

同样套路, 第一部分

\(\frac {\partial \hat y_1} {\partial h_1} = \frac {f(w_5h_1 + w_6h2 + b_3)} {\partial h_1} = w_5 * [f'(w_5h_1 + w_6h2+b_3)]\)

\(f'(w_5h_1 + w_6h2+b_3)\) 这个其实就 看作 f(x), 里面不论多少项, 都是该 函数的自变量取值而已呀.

第二部分 也是一样滴处理

$\frac {\partial h_1}{\partial w_1} = \frac {f(w_1 x_1 + w_2 x_2 + b_1)} {\partial w_1} = x_1 * [f'(w_1x_1 +w_2 x_2 + b_1)] $

终于走到输入值啦, 本例这里的 x_1 是身高, x_2 是体重. 这里的 f(x) 就是咱的 激活函数 (映射实值到0-1)

\(f(x) = \frac {1}{1+e^{-x}}\)

之前推导 逻辑回归的时候, 也是用的这个函数哦, 当时有个技巧点是, 其求导为: \(f(x)' = f(x)(1-f(x))\)

利用 分式 求导法则:

\(f(x)' = \frac {0 - (-e^{-x)}}{(1+e^{-x})^2}\)

\(= \frac {1}{1+e^{-x}} * \frac {e^{-x}}{1+e^{-x}}\)

\(=f(x)(1-f(x))\)

这个结果在推导逻辑回归的时候, 非常重要的哦, 求一阶导和二阶导都要用到

小结上边的一波操作, 其实就是一个 求导的链式法则:

\(\frac {\partial L}{\partial w_1} = \frac {\partial L}{\partial \hat y_1} * \frac {\partial \hat y_1}{\partial h_1} * \frac {\partial h_1}{\partial w_1}\)

从网络的方向上来看呢, 是从 output -> input 这样的 反向 误差传递, 这其实就是咱平时说的 BP算法, 而核心就是求导的链式法则而已呀.

所以嘛, 神经网络很多名词, 就是为了唬人, 当你扒开一看, 哦哦, 原来都只是用到一些 基础的数学知识而已

case1: 计算偏导数(Link Rule)

输入(已中心化):

姓名 体重 身高 性别 (y)
youge -2 5 1

输出比较

姓名 \(y_i\) \(\hat y_1\) (\(y_1 -\hat y_1\))
youge 1 0 1

同样, 为计算更加方便, 假设所有的 权重 为1, 所有的偏置为 0

\(h_1 = f(w_1 x_1 + w_2 x_2 + b_1)\)

\(= f(-2 + 5 + 0)\)

\(=f(3) = 0.952\)

继续,

\(h_2 = f(w_3x_1 + w_4 x_2 + b_2)\)

\(= f(-2 + 5 + 0) = h_1 = 0.952\)

继续,

\(o_1 = f(w_5h_1 + w_6h_2 + b3)\)

\(=f(0.952 + 0.952 + 0) = 0.871\)

即本例的网络输出是 \(\hat y_1 = 0.871\) 比较有倾向性的哦, 计算来算一下 \(\frac {\partial L}{\partial w_1}\) 应用上面的结论.

\(\frac {\partial L}{\partial w_1} = \frac {\partial L}{\partial \hat y_1} * \frac {\partial \hat y_1}{\partial h_1} * \frac {\partial h_1}{\partial w_1}\)

同样分解为 3个部分:

\(\frac {\partial L}{\partial \hat y_1} = -2(1- \hat y_1)\)

\(= -2(1-0.871)\)

\(=-0.258\)

继续...

$ \frac {\partial \hat y_1}{\partial h_1} = \frac {f(w_5h_1 + w_6h2 + b_3)} {\partial h_1} = x_1 * [f'(w_5h_1 + w_6h2+b_3)]$

\(=(-2) * f'(0.952 +0.952+0)\)

\(=(-2) * [f(1.904) \ f(1-1.904)]\)

\(= -0.502\)

继续...

\(\frac {\partial h_1}{\partial w_1} = \frac {f(w_1 x_1 + w_2 x_2 + b_1)} {\partial w_1} = x_1 * [f'(w_1x_1 +w_2 x_2 + b_1)]\)

\(=(-2) * f'(-2 + 5 + 0)\)

\(= -2 *f'(3)\)

\(=-2 * f(3) \ f(1-3)\)

\(=-0.227\)

因此

\(\frac {\partial L}{\partial w_1} = (-0.258) * (-0.502) * (-0.227)\)

\(=-0.029\)

意义: 随着 w_1 的增加, 损失 L 会随着减少.

随机梯度减小(SGD)

本质就是更新参数 w, 沿着 梯度的反方向微调一个步长, 直到算法收敛 或者 是随机选择一个样本, 每次做更迭,, 求解出最优的权重参数向量 w

\(w \leftarrow w_1 - \alpha \ \frac {\partial L}{\partial w_1}\)

这个 \(\alpha\) 也称为 学习率, 也就是步长呗, 或者速率都可以的, 理解上面这句话是最关键的.

为啥是沿着 梯度的反向方, 这个涉及方向导数这一块的, 自己看大一的高数吧, 懒得解释了.

  • \(\frac {\partial L}{\partial w_1}\) 偏导数 大于0, 则说明要将 w_1 调小, 使得 L 变小
  • \(\frac {\partial L}{\partial w_1}\) 偏导数 小于0, 则说明要将 w_1 调大, 使得 L 变小

因为网络中有 多个 w_i 嘛, 如果我们对每一个 w_i 都 进行这样的优化, 则整个网络的损失则会不断下降, 也就意味着网络的预测性能在不断地上升.

训练过程

  • 从数据集中随机选取一个样本, 用 SGD 进行优化, (每次只针对一个样本进行优化)

  • 计算每个权重 w_i 和 偏置 bias, ( 计算 \(\frac {\partial L}{\partial w_1}, \frac {\partial L}{\partial w_2} ... b_1, b_2...\)) 等

  • 更新权重和bias

  • 重复 第一步 .... 直到将所有的样本遍历完

代码实现 - 完整的神经网络

姓名 体重 身高 性别 (y)
youge -2 5 1
share -5 -2 1
naive -23 -11 0
beyes 30 8 0

从网上抄的代码, 这个难度不大代码, 就懒得写了, 学会抄, 和改, 我感觉是提升工作能力的必要能力.

import numpy as np

class Network:
def __init__(self):
# 本例的权重w
self.w1 = np.random.normal()
self.w2 = np.random.normal()
self.w3 = np.random.normal()
self.w4 = np.random.normal()
self.w5 = np.random.normal()
self.w6 = np.random.normal() # 偏置 bias
self.b1 = np.random.normal()
self.b2 = np.random.normal()
self.b3 = np.random.normal() def sigmoid(self, x):
"""激活函数, 映射一个实值到 [0,1]"""
return 1 / (1 + np.exp(-x)) def der_of_sigmoid(self, x):
"""激活函数的导数"""
f = self.sigmoid # 地址引用
return f(x) * (1 - f(x)) @staticmethod
def mes_loss(y_true, y_predict):
"""
计算均方误差
:param y_true, arr 真实样本值组成的array
:param y_predict, arr 预测样本值组成的array
:return: float, 总损失
"""
return ((y_true - y_predict) ** 2).mean() def feedforward(self, arr):
"""前向算法, arr是一个2个特征的数组"""
h1 = self.sigmoid(self.w1 * arr[0] + self.w2 * arr[1] + self.b1)
h2 = self.sigmoid(self.w3 * arr[0] + self.w4 * arr[1] + self.b2)
o1 = self.sigmoid(self.w5 * h1 + self.w6 * h2 + self.b3) def train(self, data, all_y_true):
"""根据训练数据, 求解参数"""
learn_rate = 0.1
max_iter = 1000 for i in range(max_iter):
for x, y_true in zip(data, all_y_true):
sum_h1 = self.w1 * x[0] + self.w2 * x[1] + self.b1
h1 = self.sigmoid(sum_h1) sum_h2 = self.w3 * x[0] + self.w4 * x[1] + self.b2
h2 = self.sigmoid(sum_h2) sum_o1 = self.w5 * h1 + self.w6 * h2 + self.b3
o1 = self.sigmoid(sum_o1) y_pred = o1
d_L_d_ypred = -2 * (y_true - y_pred) # o1
d_ypred_d_w5 = h1 * self.der_of_sigmoid(sum_o1)
d_ypred_d_w6 = h2 * self.der_of_sigmoid(sum_o1)
d_ypred_d_b3 = self.der_of_sigmoid(sum_o1) d_ypred_d_h1 = self.w5 * self.der_of_sigmoid(sum_o1)
d_ypred_d_h2 = self.w6 * self.der_of_sigmoid(sum_o1) # h1
d_h1_d_w1 = x[0] * self.der_of_sigmoid(sum_h1)
d_h1_d_w2 = x[1] * self.der_of_sigmoid(sum_h1)
d_h1_d_b1 = self.der_of_sigmoid(sum_h1) # h2
d_h1_d_w3 = x[0] * self.der_of_sigmoid(sum_h2)
d_h1_d_w4 = x[1] * self.der_of_sigmoid(sum_h2)
d_h1_d_b2 = self.der_of_sigmoid(sum_h2) # 应用梯度下降, 更新 权重值 和 bias
# h1
self.w1 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_w1
self.w2 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_w2
self.b1 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_b1 # h2
self.w3 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_w3
self.w4 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_w4
self.b2 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_h1_d_b2 # o1
self.w5 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_ypred_d_w5
self.w6 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_ypred_d_w6
self.b3 -= learn_rate * d_L_d_ypred * d_ypred_d_h1 * d_ypred_d_b3 # 计算总的损失 Loss
if i % 10 == 0:
y_preds = np.apply_along_axis(self.feedforward, 1, data)
loss = self.mes_loss(all_y_true, y_preds) print("Epoch %d loss: %.3f" % (i, loss)) if __name__ == '__main__':
# test
data = np.array([
[-2, 5],
[-5, -2],
[-23, -11],
[30, 8]
]) all_y_trues = np.array([1, 1, 0, 0])
# 训练神经网络
neework = Network()
neework.train(data, all_y_trues)

没有debug 哦, 绝大部分都不是我自己的代码, 目的是做个笔记参考而已, 参考思路而非真正用这样而代码做生产.

补充(代码)-入门神经网络-Python 实现(下)的更多相关文章

  1. 使用2to3将代码移植到Python 3-转

    http://m.blog.csdn.net/blog/merryken/9104199# ❝ Life is pleasant. Death is peaceful. It’s the transi ...

  2. Python Tensorflow下的Word2Vec代码解释

    前言: 作为一个深度学习的重度狂热者,在学习了各项理论后一直想通过项目练手来学习深度学习的框架以及结构用在实战中的知识.心愿是好的,但机会却不好找.最近刚好有个项目,借此机会练手的过程中,我发现其实各 ...

  3. Python 入门之Python基础数据类型及其方法

    Python 入门之Python基础数据类型 1. 整型:int 用于计算,用于比较 (在赋值的时候先执行等号右边的内容) 1.1 整数的加 a = 10 b = 20 print(a + b) 结果 ...

  4. Python 入门之 Python三大器 之 装饰器

    Python 入门之 Python三大器 之 装饰器 1.开放封闭原则: (1)代码扩展进行开放 ​ 任何一个程序,不可能在设计之初就已经想好了所有的功能并且未来不做任何更新和修改.所以我们必须允许代 ...

  5. Python 入门之Python基础知识

    Python 入门之Python基础知识 1.变量 (1)变量就是把程序运行的中间结果临时存在内存中,以便后续代码使用 (2)变量的作用: 昵称,就是代指内存中某个地址中的内容 a = 123 变量名 ...

  6. Python环境下NIPIR(ICTCLAS2014)中文分词系统使用攻略

    一.安装 官方链接:http://pynlpir.readthedocs.org/en/latest/installation.html 官方网页中介绍了几种安装方法,大家根据个人需要,自行参考!我采 ...

  7. ytu 2463:给小鼠补充代码(DFS 深度优先搜索)

    2463: 给小鼠补充代码 Time Limit: 2 Sec  Memory Limit: 64 MBSubmit: 5  Solved: 2[Submit][Status][Web Board] ...

  8. Python的下划线_

    1.单下划线(_) 通常情况下,单下划线(_)会在以下3种场景中使用: 1.1 在解释器中: 在这种情况下,"_"代表交互式解释器会话中上一条执行的语句的结果.这种用法首先被标准C ...

  9. python环境下实现OrangePi Zero寄存器访问及GPIO控制

    最近入手OrangePi Zero一块,程序上需要使用板子上自带的LED灯,在网上一查,不得不说OPi的支持跟树莓派无法相比.自己摸索了一下,实现简单的GPIO控制方法,作者的Zero安装的是Armb ...

  10. 在 C 代码中嵌入 Python 语句或使用 Python 模块 (Visual Studio 2013 环境设置)

    1) 新建一个 内嵌 Python 语句的 C 代码, // This is a test for check insert the Python statements or module in C. ...

随机推荐

  1. 通过 fork 为项目做出贡献

    本文旨在帮助新手小伙伴了解学习如何参与 GitHub 项目,为其献上自己的一份力,留下属于自己的足迹. 普遍流程 通过 fork 为项目做出贡献一个普遍的流程如下图: sequenceDiagram ...

  2. FANUC发那科机器人维护保养与故障处理分析

    发那科机器人维护保养与故障处理分析 掌握知识:掌握发那科机器人维护保养与故障处理分析 每台机器人都需要预防性保养,这样可以保证它们在生产线上保持最佳性能和实现一致性,当机器人没有进行定期的预防性保养检 ...

  3. 二叉树层次遍历下到上,左到右python

    # 利用队列进行层次遍历就行class TreeNode: def __init__(self, x): self.val = x self.left = None self.right = None ...

  4. flutter - [01] Dart概述

    题记部分 一.什么是dart dart是由谷歌开发的计算机编程语言,可以被用于web.服务器.移动应用和物联网等领域的开发 dart诞生于2011年,号称要取代JavaScript.但是过去的几年中一 ...

  5. 分布式锁—7.Curator的分布式锁

    大纲 1.Curator的可重入锁的源码 2.Curator的非可重入锁的源码 3.Curator的可重入读写锁的源码 4.Curator的MultiLock源码 5.Curator的Semaphor ...

  6. 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理

    在 AI 编程领域国内外有一堆能叫的上号的应用: Cursor Windsurf Trae 阿里的「通义灵码」 百度的「文心快码」 字节跳动的「MarsCode」 科大讯飞的「iFlyCode」 Gi ...

  7. C#语言碎片:Switch-Case语句字符串匹配

    Switch case语句在处理字符串类型匹配时候,case条件需要设置为静态常量或者一个具体的字符串: 因为工具类ToolHand.Name 为变量,所以编译不通过. 使用if语句来逐个判断: 看A ...

  8. idea 登录提示Server's certificate is not trusted

    原因:你本地的idea证书不可以 解决方式1: 你去安装一个正版的: 解决方式2: 设置接受不受信任证书即可. AS:File - Settings - Tools - Server Certific ...

  9. go 结构体根据某个字段进行排序

    前言 在任何编程语言中,关乎到数据的排序都会有对应的策略,我们来看下 Golang 是怎样对数据进行排序,以及我们如何优化处理使用 go 排序 go 可以针对任何对象排序,虽然很多情况下是一个 sli ...

  10. Go语言遍历字符串——获取每一个字符串元素

    遍历字符串有下面两种写法. 遍历每一个ASCII字符 遍历 ASCII 字符使用 for 的数值循环进行遍历,直接取每个字符串的下标获取 ASCII 字符,如下面的例子所示. theme := &qu ...