# coding:utf-8 import numpy as np import matplotlib.pyplot as plt x = np.arange(-5/2,5/2,0.01) y = -x**3+x**2+np.e+x**4 dy = lambda x:-3*x**2+2*x+4*x**3 dyy = lambda x:-6*x+2+12*x**2 a = 0.001 def sgd_func(n): x0=-10 ady = [] for i in range(n): # x0
1.直接奉献代码,后期有入门更新,之前一直在学的是TensorFlow, import torch from torch.autograd import Variable import torch.nn.functional as F import matplotlib.pyplot as plt import numpy as np x_data = np.arange(-2*np.pi,2*np.pi,0.1).reshape(-1,1) y_data = np.sin(x_data).re
原文地址:传送门 import numpy as np import matplotlib.pyplot as plt %matplotlib inline plt.style.use(['ggplot']) 当你初次涉足机器学习时,你学习的第一个基本算法就是 梯度下降 (Gradient Descent), 可以说梯度下降法是机器学习算法的支柱. 在这篇文章中,我尝试使用 p y t h o n python python 解释梯度下降法的基本原理.一旦掌握了梯度下降法,很多问题就会变得容易理