虽然翻译水平有限,但是看原文虽然看得懂,但是在词汇的问题上,会导致看了后面忘了前面,所以先蹩脚的翻译成中文,然后在仔细思考论文的思想(当然不能翻译成中文就不看英文原本了,得两者一起看,这样不会丢失前面的思路,加快论文理解速度),我想随着不断的翻译,应该会提升效果吧。希望不会误导别人才好。

sparse linear regression with beta process priors(2010)

Bo Chen,John Paisley and Lawrence Carin

摘要:在beta处理先验的基础上,提出了关于欠定的线性系统的最小L0范数解的贝叶斯逼近方法。这个beta process linear regression(BP-LR)模型可以找到这个欠定模型的稀疏解,通过对向量x 建立一个关于非稀疏权重向量w和一个从BP先验中提取的稀疏二值向量z的逐元素乘积的模型。这个层次模型是全 共轭的并且可以快速的对这个模型进行推导。我们在压缩感知问题和特性相关问题上证明这个模型的正确性,并且展现了BP-LR可以当保存相关特征的相关分组的时候,选择性的移出不相关的特征。

1引言

在本文中,我们通过使用BP prior的方法去找到欠定线性系统的稀疏解,假设这个线性系统是:

(公式1)

这里并且M<<N,向量的特性一般是一个受限的先验,通常有着下面的正则项:

(公式2)

在这个式子中,这个解,xstar,是使用Lp范数项和欧式逼近误差项,并引入惩罚项lambda作为权衡两项之间的相对重要性。例如,当p=2,这个结果是ridge回归解,当p=1,这个结果是lasso。后者的解是众所周知用来生成稀疏解的,因为可以将xstar中许多的值都设置成等于0。

当表达这个先验中大多数的特征或者中大多数的列都是关于y的预测值不相关的时候,稀疏性总是众望所归。减少特征的数量可以提升模型的生成能力,因此改善模型的效果。在贝叶斯环境中,通常考虑两个模型:相关性向量机(RVM)和贝叶斯lasso,后者可以当以边缘形式写来生成L1惩罚函数。

理想情况下,这个L0范数应该可以被引入;但是在压缩感知中,通常选择L1而不是L0,因为这是基于被证明两者都能在某种条件下找到相同的解。因为L1最小化的宽松的计算可以在以多项式(这里觉得用线性更好)的时间内被解决。另一方面,最小化L0范数,被证明是有NP-难的,需要在的2^N子空间中进行枚举来找到解。因此找个逼近L0的方法就很必要了,这在全贝叶斯环境中通常推荐使用BPprior。

BP可以用来将向量x分解成权重向量w 和稀疏二值向量z 的逐元素相乘的形式:

(公式3)

在二值向量 z 上的先验可以促使稀疏解并且激励他的分类成为L0解的逼近形式。这个解模型是一个在系数向量中稀疏化的BP-LR模型。

这个模型的自然应用是压缩感知问题,在这个问题中有着N维系数向量的许多基中是稀疏的,并且只在M<<N测量情况下使用。另一个应用是基因表达分析的分组中。在高度相关特征的情况中,RVM和贝叶斯lasso都是可以只选择单个特征并将剩下的相关特征权重设置成0.。这忽略了包含在相关基因中的信息,而这些可能对于医疗专业来说是很感兴趣的。我们会证明BP-LR模型可以被用在即使不需要收缩相关特征的情况下。

我们在部分2中复述了BP并且提出了BP-LR模型,并且在部分3中对压缩感知和分组选择问题上的实验进行解释,并在部分4中做总结。

2 BP-LR

这里扩展到有着两个参数的BP,是一个非参数化贝叶斯先验,并且有三个输入:两个正标量,a和b;一个基测量,H0,并表示成。这里考虑的模型,这里的基测量是自带离散的,:

(公式4)

这里的第 n 列,虽然因为原理性问题,BP只有在的情况下才是真的随机处理,但是因为这个基测量的离散化从而大大简化了这个模型。

假设N是一个合理的小数值,并且猜想这样一种情况:因为我们知道,所以这个离散的BP可以直接得到并且只需要向量Pi的生成:

(公式5)

对于n = 1,...,N来说,这个结果H,不像H0一样,不是一个概率测量。因此不是直接从H中采样,但是H 可以用来作为伯努力处理,的参数,这里,而且二值向量
z 是由下面的式子生成的:

(公式6)

对于n = 1,...,N来说,这个结果向量 z 是在向量PI的基础上稀疏的;我们在下面检查这个先验的一些原理性的特性。

因此BP提供了一个自然框架去执行稀疏线性回归,并且结合权重向量w使用的时候,他可以得到下面的BP-LR模型:

对于n = 1,...,N来说,这里的符号 o 表示的是两个向量或者矩阵的逐元素相乘。在这个模型中我们定义,这里的z提供稀疏性机制,w
为z 在中选定的权重向量。

考虑到本文篇幅限制,我们不提供式子的推导过程。然而我们提到这个模型的充分分析性可以允许我们进行快速的可变推导,除了MCMC Gibbs 采样方法。我们同样注意到分离的 gamma先验可以放在逆方差上,我们发现在模型学习上这个逆方差有着明显的有益的影响。文献【11】和参考文献中有着在BP上更详细的推导。图1是这个模型的一个图表示。

2.1 超参数b 和 b 的设置

这个参数a 和b 在模型学习上有着明显的影响,所以需要仔细的考虑。因此我们提供一个设置a 和b的方法,是关于这两个不同参数的函数,S和F,这山里都有个直观的理解。

定义并考虑是一个概率为0的事件,x
的期望L0范数,可以通过计算来得到

(公式12)

这里的参数可以设置成合适的稀疏级别。我们注意到当的时候,是个泊松分布,

第二个参数 F ,可以设置成控制任何的后验期望的最大值。也就是说在给定 的情况下,的后验期望,等于:

(公式13)

我们在下面的章节中讨论这些具体问题的值。使用这些参数,我们能解决a 和b 的问题:

3实验

我们这里考虑两个有关BP-LR的应用:高度相关特征的分组选择和压缩感知。

3.1 相关特征选择

经验性的实验显示RVM和贝叶斯lasso在处理高度相关特征的时候是通过选择一个(或一小部分)的特征,并将剩下的设置成0.然而,在许多情况下,人们想从一个特征上的权重扩展到组中所有特征上(例如:基因-表示数据分析的生物解释)。我们在一个N=500维的小型问题上实验了BP-LR模型的分组选择。我们的组是根据文献【17】中章节5d生成的并设置

在图3中,我们将S=100和F=75的情况下BP-LR模型的结果进行对比.在上放置一个无信息gamma先验,并设置。我们可以发现这个BP模型可以选择三个组,或者前15个特征,而RVM和贝叶斯lasso模型只在每个组中选择了1个或者2个。这种分组的想法是因为在给定迭代(通过z)的情况下进行特征选择,并且可以使用一个非稀疏解的ridge回归来计算相对应的权重。因此在相关特征中的权重随着他们的选择而相互之间增长或下降。并且发现在噪音特征选择中这个MP-LR模型更具有稀疏性,系数的数量大于1e-2,对于BP-LR来说,等于14,而对于RVM来说等于23,而贝叶斯lasso等于46.

3.2压缩感知

对于压缩感知问题来说,我们使用图2这种128×128的图像,并用一系列CS反演算法来对比我们的模型。我们在图4中显示相关的错误,并用重建误差的幅度除以原始图像的大小。我们发现BP-LR模型(这里称之为BetaP CS )在低信号到噪音条件下执行的特别好。

图5中,我们。。。下面的懒的翻了

sparse linear regression with beta process priors的更多相关文章

  1. Linear Regression with Scikit Learn

    Before you read  This is a demo or practice about how to use Simple-Linear-Regression in scikit-lear ...

  2. Regularized Linear Regression with scikit-learn

    Regularized Linear Regression with scikit-learn Earlier we covered Ordinary Least Squares regression ...

  3. 机器学习笔记-1 Linear Regression(week 1)

    1.Linear Regression with One variable Linear Regression is supervised learning algorithm, Because th ...

  4. Locally Weighted Linear Regression 局部加权线性回归-R实现

      局部加权线性回归  [转载时请注明来源]:http://www.cnblogs.com/runner-ljt/ Ljt 作为一个初学者,水平有限,欢迎交流指正. 线性回归容易出现过拟合或欠拟合的问 ...

  5. Linear Regression with machine learning methods

    Ha, it's English time, let's spend a few minutes to learn a simple machine learning example in a sim ...

  6. [Sklearn] Linear regression models to fit noisy data

    Ref: [Link] sklearn各种回归和预测[各线性模型对噪声的反应] Ref: Linear Regression 实战[循序渐进思考过程] Ref: simple linear regre ...

  7. [Scikit-learn] 1.1 Generalized Linear Models - from Linear Regression to L1&L2

    Introduction 一.Scikit-learning 广义线性模型 From: http://sklearn.lzjqsdd.com/modules/linear_model.html#ord ...

  8. Linear regression with one variable - Model representation

    摘要: 本文是吴恩达 (Andrew Ng)老师<机器学习>课程,第二章<单变量线性回归>中第6课时<模型概述>的视频原文字幕.为本人在视频学习过程中逐字逐句记录下 ...

  9. Linear Regression and Gradient Descent (English version)

    1.Problem and Loss Function   Linear Regression is a Supervised Learning Algorithm with input matrix ...

随机推荐

  1. Origin绘制双Y轴图的方法

    1.已有数据绘图如下,其中网络流量的单位是M Bytes/s,与另外两组数据的单位(时间)不同,现在要为其添加右侧Y轴. 2.首先选中该图像,找到工具条,点击第三个按钮“Add Right-Y Lay ...

  2. VS2010部署相关

    找到一篇写得最负责的.贴住收藏了: http://blog.csdn.net/xhf55555/article/details/7702212. 之前在其它地方找的都缺胳膊少腿,真不知他们自己怎么实现 ...

  3. 用AndroidStudio创建so

    Android开发中经常遇到so,下面介绍用Android Studio创建so.Android Studio版本3.0.1. 一 编写代码 1 创建java类myJNI.java,并且声明一个nat ...

  4. Django ModelForm类生成表单

    1. 定义ModelForm类 #froms.py from django import forms from app01.modles import User class UserModelForm ...

  5. python request 接口自动化设计

    设计思路: * 数据驱动 * 测试结果以邮件形式发送 * 保留测试过程的用例和请求结果到日志,方便查问题 设计如下: * bin * casehandler 读取txt或者xls文件中的用例,一个文件 ...

  6. zabbix系列之九——安装后配置四web监控

    1web监控 描述 详细 备注 概要 1)      需要定义 web 场景(包括一个或多个 HTTP请求),zabbix服务器根据预定义的命令周期性的执行这些步骤. 2)      Web 场景和 ...

  7. JS中的“==”符号及布尔值转换规则

    what are the rules for how == converts types? 关于"=="的比较规则: 1. Comparing numbers and string ...

  8. PHP正则自动验证传入数据

    本文出至:新太潮流网络博客 /** * [is_string_regular_type 正则自动验证传入数据] * @E-mial wuliqiang_aa@163.com * @TIME 2017- ...

  9. 在Eclipse中运行Jboss时出现java.lang.OutOfMemoryError:PermGen space及其解决方法

    在Eclipse中运行Jboss时出现java.lang.OutOfMemoryError:PermGen space及其解决方法 在Eclipse中运行Jboss时,时间太长可能有时候会出现java ...

  10. PHP支付宝支付开发流程

    支付宝开发流程   1.首先我们先谈谈第三方支付 所谓第三方支付就是和一些各大银行签约,并具备一定实力和信誉保障的第三方独立机构提供的交易平台 目前市面上常见的有支付宝,财付通,网银,易宝支付等,网站 ...