【Convex Optimization (by Boyd) 学习笔记】Chapter 1 - Mathematical Optimization
以下笔记参考自Boyd老师的教材【Convex Optimization】。
I. Mathematical Optimization
1.1 定义
数学优化问题(Mathematical Optimization) 有如下定义:
\[
\begin{align}
&minimize \, f_0(x) \notag \\
&subject \, to \, f_i(x)≤b_i, \, i=1,...,m \tag{1.1}
\end{align}
\]
- 向量\(x=(x_1,...,x_n)\)是优化问题中的优化变量(optimization variable)。
- 函数\(f_0:R^n→R\)是 目标函数。
- 函数\(f_i:R^n→R, i=1,...,m\)是限制函数(constraint function)。
何为最优呢?我们有如下定义:
当对于满足限制条件\(f_1(z)≤b_1,...,f_m(z)≤b_m\)任意变量\(z\),都有\(f_0(z)≥f_0(x^*)\),则称\(x^*\)为最优(optimal)。
- 分类
当定义(1.1)中的满足如下条件时,称该优化问题为线性规划(linear program)。
\[f_i(αx+βy)=αf_i(x)+βf_i(y) \tag{1.2}\]
其中\(x,y∈R^n\)且 \(α,β∈R\)。
同理当不满足(1.2)的优化问题则成为非线性规划(nonlinear program)。
凸优化问题(Convex Optimization) 需满足的条件相比线性规划更加广泛,所以后者也可以理解为前者的一个子集,凸优化需满足的条件如下:
\[f_i(αx+βy)≤αf_i(x)+βf_i(y) \tag{1.3}\]
- 理解定义
光看定义(1.1)不太直观,举个栗子直观理解理解一下:
我们都知道在机器学习中我们的目标是需要基于一些先验知识,找到一个模型对数据进行拟合。 此时优化变量\(x\)就是模型中的参数,限制函数就是那些先验知识以及对超参数的限制等等,目标函数就是(以分类问题为例)模型对数据拟合的准确度。
不同优化算法之间的有效性不同,而且一般都取决于这些因素:
- 目标函数和约束函数的特殊形式
- 优化变量和约束(constraints)的数量
- 特殊的结构(sparsity 稀疏结构)
1.2 最小二乘法&线性规划
Least-squares and linear programming
1.2.1 最小二乘问题
- 定义
最小二乘问题(least-squares) 没有约束,也就是说此时定义(1.1)中的\(m=0\),其目标函数定义如下:
\[minimize \, f_0(x)=||Ax-b||^2_2=\sum_{i=1}^k(a_i^Tx-b_i)^2 \tag{1.4}\]
其中\(A∈R^{k×n}\,(k≥n)\),\(a_i^T\)是A的行向量,\(x∈R^n\)是优化变量。
求解
求解(1.4)中的优化问题可化简为一组线性方程,即:
\[(A^TA)x=A^Tb\]
解为\(x=(A^TA)^{-1}A^Tb\)。应用
如今的算法和软件已经能非常高效的求解出最小二乘优化问题了,即使是成千上万的变量(variable)和项(term),都可以在一分钟以内计算出来(一般都要求是稀疏模式)。所以如果能把优化问题转变成最小二乘法优化问题,一切就简单很多了。
1.2.2 线性规划
- 定义
线性规划定义如下:
\[
\begin{align}
&minimize \, c^Tx \notag \\
&subject \, to \, a_i^Tx≤b_i, i=1,...,m \tag{1.5}
\end{align}
\]
其中\(c, a_1,... ,a_m ∈ R^n\) and 标量 \(b_1, . . . , b_m ∈ R\)。
求解
求解线性规划没有像最小二乘那样的简化公式,但是还是有各种各样的方法的,例如Dantzig's simplex method以及interior-point methods(复杂度一般为\(n^2m\,(m≥n)\)阶)。应用
虽然将原始的优化问题转化为线性规划问题要比转化为最小二乘法优化问题复杂得多,但是也不是那么难。已经有部分软件系统可以自动转化优化问题为线性规划了。
1.3 凸优化
定义
其实凸优化已经在前面介绍过了,这里再重新介绍一下。凸优化问题定义如下:
\[
\begin{align}
& minimize \, f_0(x) \notag \\
& subject \, to \, f_i(x)≤b_i, \, i=1,...,m \notag \\
& f_i(αx+βy)≤αf_i(x)+βf_i(y) \tag{1.6}
\end{align}
\]
其中\(x,y∈R^n\)且 \(α,β∈R \, with \, \alpha+\beta=1, \alpha≥0,\beta≥0\)。求解
对于凸优化问题而言,并没有像最小二乘法优化问题那样的求解公式,但是interior-point methods也不失为一个不错的方法。应用
将优化问题转化为凸优化问题要比上面两个更难一些,这个转化过程需要不少技巧,但是只要转化成功,求解起来就和上面两种优化问题一样简单了。
1.4 非线性规划
非线性规划(nonlinear programming)也叫非线性优化(nonlinear optimization)。
注意:非线性优化问题可能是也可能不是凸优化问题。
此时优化问题解可划分成局部最优解,全局最优解。
1.5 大纲
本书的大纲如下:
- Part I: Theory
- Chapter 2:Convex Sets(凸集)
- Chapter 3:Convex functions(凸函数)
- Chapter 4:Convex optimization problems
- Chapter 5: Lagrangian duality (拉格朗日对偶)
- Part II: Applications(主要介绍凸优化是如何应用在实际中的)
- Part III: Algorithms
- unconstrained optimization
- equality constrained optimization
inequality constrained optimization
第三部分算法主要分三个阶段:
1.Base level:二次方优化(如最小二乘)
2.Next level:牛顿算法(Newton's method),用于解决非约束或者等式约束问题
3.Top level:内点算法(Interior-point methods),解决不等式约束问题
【Convex Optimization (by Boyd) 学习笔记】Chapter 1 - Mathematical Optimization的更多相关文章
- 【Convex Optimization (by Boyd) 学习笔记】Chapter 2 - Convex sets(1) 仿射集&凸集
I. 仿射凸集(Affine and convex sets) 1. 线与线段 假设\(R^n\)空间内两点\(x_1,x_2\, (x_1≠x_2)\),那么\(y=\theta x_1+(1-\t ...
- 神经网络与深度学习笔记 Chapter 1.
转载请注明出处:http://www.cnblogs.com/zhangcaiwang/p/6875533.html sigmoid neuron 微小的输入变化导致微小的输出变化,这种特性将会使得学 ...
- 神经网络与深度学习笔记 Chapter 6之卷积神经网络
深度学习 Introducing convolutional networks:卷积神经网络介绍 卷积神经网络中有三个基本的概念:局部感受野(local receptive fields), 共享权重 ...
- 神经网络与深度学习笔记 Chapter 3.
交叉熵 交叉熵是用于解决使用二次代价函数时当单个神经元接近饱和的时候对权重和bias权重学习的影响.这个公式可以看出,当神经元饱和的时候,sigma的偏导接近于0,w的学习也会变小.但是应用交叉熵作为 ...
- 神经网络与深度学习笔记 Chapter 2.
转载请注明出处http://www.cnblogs.com/zhangcaiwang/p/6886037.html 以前都没有正儿八经地看过英文类文档,神经网络方面又没啥基础,结果第一章就花费了我将近 ...
- Python学习笔记–Chapter 2
1.字符串中添加制表符,可使用字符组合\t 2.字符串中添加换行符,可使用字符组合\n 3.字符串\n\t可以换到下一行,并且在开头添加一个制表符. 4.删除末尾空白,使用方法rstrip() 5.删 ...
- Python学习笔记 chapter 2基础
程序输入 >>> print('%s is number %d'%('Python', 1))Python is number 1 输出重定向有问题(待定) 文本输入>> ...
- 蟒蛇书学习笔记——Chapter 09 Section 01 创建和使用类
9.1 创建和使用类 9.1.1 创建Dog类 根据Dog类创建的每个实例都将存储名字和年龄,我们赋予了每条小狗蹲下(sit( ))和打滚(roll_over( ))的能力: class Dog: ...
- jQuery的学习笔记
JQuery学习笔记 Chapter one初识jQuery 1.2测试jQuery 在jQuery库中,$是jQuery的别名,如:$()相当于jQuery() 注意:在使用JQuery进行开发的时 ...
随机推荐
- Tennis Game CodeForces - 496D(唯一分解定理,费马大定理)
Tennis Game CodeForces - 496D 通过排列组合解决问题. 首先两组不同素数的乘积,是互不相同的.这应该算是唯一分解定理的逆运用了. 然后是,输入中的素数,任意组合,就是n的因 ...
- 【优秀的Sketch插件】PaintCode for Sketch for Mac 1.1
[简介] PaintCode for Sketch 是一款结合了PaintCode和Sketch两款软件强大功能的插件,今天和大家分享最新的1.1版本,支持Sketch 40+版本,这个插件能够让你的 ...
- bzoj2333 离线 + 线段树
https://www.lydsy.com/JudgeOnline/problem.php?id=2333 有N个节点,标号从1到N,这N个节点一开始相互不连通.第i个节点的初始权值为a[i],接下来 ...
- angular,vue,react的基本语法—双向数据绑定、条件渲染、列表渲染、angular小案例
基本语法: 1.双向数据绑定 vue 指令:v-model="msg" react constructor(){ this.state{ msg:"双向数据绑定" ...
- Django之组件--中间件
中间件 中间件是介于request与response处理之间的一道处理过程,相对比较轻量级,并且在全局上改变django的输入与输出.因为改变的是全局,所以需要谨慎实用,用不好会影响到性能 自定义中间 ...
- Java高并发秒杀API之业务分析与DAO层
根据慕课网上关于java高并发秒杀API的课程讲解用maven+ssm+redis实现的一个秒杀系统 参考了codingXiaxw's blog,很详细:http://codingxiaxw.cn/2 ...
- wxpython绘制音频
#-*- coding: utf-8 -*- ############################################################################# ...
- HTTP.SYS远程执行代码漏洞分析 (MS15-034 )
写在前言: 在2015年4月安全补丁日,微软发布了11项安全更新,共修复了包括Microsoft Windows.Internet Explorer.Office..NET Framework.S ...
- 使用keytool自建证书及应用
1. 在密钥库文件 keystore.jks 中生成证书: keytool -genkey -alias cas -keyalg RSA -keypass changeit -storepass ch ...
- DevExpress Winform 常用控件
Ø 前言 DevExpress 控件的功能比较强大,是全球知名控件开发公司,对于开发 B/S 或 C/S 都非常出色,可以实现很炫且功能强大的效果. DevExpress Winform 常用控件是 ...