参考资料:

https://en.wikipedia.org/wiki/Inductive_bias

http://blog.sina.com.cn/s/blog_616684a90100emkd.html

Machine Learning. Tom M. Mitchell

下面我认为比较关键的内容都用红色字体标注:

mokuram (mokuram) 于Tue Jan 4 05:22:24 2005)
提到:
就是学习器在学习的时候带有的偏见。
(这个说法不很准确)
比如决策数分类器,很多决策数都采用 奥砍姆剃刀 原则 这样的归纳偏置。
也就是说,在众多能解决问题的决策数中,选择最简单的。
具体有关这个问题的探讨,请参阅Tom的MACHINE LEARNING
中文版本国内有售
faiut (繁星满天) 于Tue Jan 4 10:25:09 2005)
提到:
这个概念理解起来总是模模糊糊的,
还不会用自己的话描述。

jueww (觉·Hayek) 于Tue Jan 4 13:02:01 2005)
提到:
我喜欢用偏好这个单词。
大概相对于model complexity之类。

mokuram (mokuram) 于Tue Jan 4 13:53:03 2005)
提到:
归纳偏置是隔标准的术语,英文是inductive bias

jueww (觉·Hayek) 于Tue Jan 4 20:16:58 2005)
提到:
但翻译成中文用偏置不好吧。。。
bias and variance analysis里面翻译成偏置、偏离才差不多。

mokuram (mokuram) 于Wed Jan 5 00:46:37 2005)
提到:
增华军先生在翻译TOM 的MACHINE LEARNING时,就是这样翻译的,
感觉MACHINE LEARNING时国外很著名的教材,
增先生的翻译水平,也还不错.

jueww (觉·Hayek) 于Wed Jan 5 10:05:22 2005)
提到:
怎么说都是各人偏好吧,反正没人会把中文写的论文当回事。
翻译一个术语真的需要对这个行业的中文和英文非常懂才行。
偏置是一个电子行业的术语,容易产生误解。
bias在ML中意思不止一个,用英语表达混乱了点,否则你也不会有这种疑问。
如果在中文时能够将两种意思用不同汉字表达,不是更好?
题归正传,我对BIAS的理解倒没有像你这么看教材看得仔细,TOM那本东东我没觉得
有多少用处,所以没仔细看过。我完全是凭文献中出现的上下文猜测这个单词的意思得。
我觉得用“model complexity”或者说"representation ability“代替BIAS
好像一般没什么问题,被你这么一问倒也发现真的不知道这个东东是说啥的了。。。
刚上网查了把,豁然开朗,嘿嘿:
Informally speaking, the inductive bias of a machine learning algorithm refers
to additional assumptions, that the learner will use to predict correct outpu
ts for situations that have not been encountered so far.
In machine learning one aims at the construction of algorithms, that are able
to learn to predict a certain target ouput. For this the learner will be prese
nted a limited number of training examples that demonstrate the intended relat
ion of input and output values. After successful learning, the learner is supp
osed to approximate the correct output, even for examples that have not been s
hown during training. Without any additional assumptions, this task cannot be
solved since unseen situations might have an arbitrary output value. The kind
of necessary assumptions about the nature of the target function are subsumed
in the term inductive bias. A classical example of an inductive bias is Occam'
s Razor, assuming that the simplest consistent hypothesis about the target fun
ction is actually the best. Here consistent means that the hypothesis of the l
earner yields correct ouputs for all of the examples that have been given to t
he algorithm.
Approaches to a more formal definition of inductive bias are based on mathemat
ical logic. Here, the inductive bias is a logical formula that, together with
the training data, logically entails the hypothesis generated by the learner.
Unfortunately, this strict formalism fails in many practical cases, where the
inductive bias can only be given as a rough description (e.g. in the case of n
eural networks).
跟我猜的意思基本一样。。。

NeuroNetwork (刮开有奖:=>███████) 于Wed Jan 5 13:30:58 2005)
提到:
这两个bias根本就不是一回事

NeuroNetwork (刮开有奖:=>███████) 于Wed Jan 5 14:26:11 2005)
提到:
DT的bias首先是disjunctive probability similarity,然后才是the shorter the better

ihappy (人似秋鸿来有信) 于Thu Jan 6 10:13:19 2005)
提到:
这个居然mark了?
不是误人子弟吗?
那段英文说的倒是没错的,"翻译一个术语真的需要对这个行业的中文和英文非常懂才行。
"也没错,其他都错了
bias和model complexity, representation ability完全是不同的东西。

jueww (觉·Hayek) 于Thu Jan 6 13:06:18 2005)
提到:
是不一样啊。但我觉得就是差不多的东东。
本质想谈的都是模型的推广能力,
同一个东西换个角度表达的概念。
只不过bias跟具体分类算法相关时可以说得更加清楚点。
但如果是抽象的谈bias,
我确实没理解bias比model representation ability多了什么新东西,
请指教。
the inductive bias of a machine learning algorithm refers to additional assum
ptions, that the learner will use to predict correct outputs for situations th
at have not been encountered so far.
这个additional assumption我理解的就是模型的表达能力,只不过
bias是相对于learning algorithm上来说的,
而representation是相对于classification model来说的。
mitchell、dietteriech喜欢用bias,而vapnik喜欢用model complexity。

faiut (繁星满天) 于Thu Jan 6 22:21:10 2005)
提到:
本来概念迷迷糊糊的,现在看了你的介绍豁然开朗。
3x

jueww (觉·Hayek) 于Thu Jan 6 22:28:13 2005)
提到:
呵呵。相互帮忙,何乐不为啊。再说真正搞过一样东西的人,
都会碰到一样的、很多书上没有的东西的。。。只能靠自己领会了。
搞开发是这样,搞所谓的研究估计也这样。

ihappy (人似秋鸿来有信) 于Fri Jan 7 01:04:02 2005)
提到:
其实mitchell那本书这个部分讲的很好啊。
首先,他举了一个例子,说明任何bias-free的learner都是fruitless,不能用来
对任何unseen sample进行分类。换句话说,就是说,没有bias的learner没有任何
generalizability。 这个和model complexity是不同的,如果选择了不合适的
model complexity,只是可能泛化能力变差而已,仍然有泛化能力。
所以,这个所谓的inductive bias是your PRIOR assumption about the learner.
这里英文用bias这个词是合适的,至于中文应该翻译成什么,我自己也没有找到
什么合适的,似乎目前知道的,偏置这个翻译可以用。
第二,inductive bias和occam razor有很大关系,因为通常大家的prior assumption,
就是inductive bias,会选择occam razor,或者说,选择合适的complexity比较小的
model,但是这两者并不等价。比如说candidate elimination的inductive bias是
解存在(或者说version space不为空),decision tree的inductive bias是短
的树(这个近似于model complxity),以及高information gain的属性位置偏高
(这个就不是model complexity)
第三,inductive bias主要是个概念,实用性很差--除了有限的几种简单learner,
几乎没法说明其他learner的inductive bias是什么,而且对实际应用指导性很差。
但是对于machine learning的研究人员来说,这个概念是必须搞清楚的--以及他
和model complexity的区别

jueww (觉·Hayek) 于Fri Jan 7 01:23:55 2005)
提到:
领教了。不过还是不懂,也不觉得需要懂。。。
当文献中用bias指向不同的分类器并进行比较时,我理解就是意在
比较它们之间complexity,representation ability,generalization ability,而你觉
得这些例子并不指它们在不同分类器之间比较。但现实是文献中就是用bias来泛指各种
分类器。
下面是一篇文献的题目和摘要。如果是prior,还能control吗?反而model complexity来
代替的话,就很好理解了。
Control of inductive bias in supervised learning using evolutionary computatio
n: a wrapper-based approach
Source Data mining: opportunities and challenges table of contents
Pages: 27 - 54
Year of Publication: 2003
ISBN:1-59140-051-1
Author William H. Hsu Kansas State University

In this chapter, I discuss the problem of feature subset selection for supervi
sed inductive learning approaches to knowledge discovery in databases (KDD), a
nd examine this and related problems in the context of controlling inductive b
ias. I survey several combinatorial search and optimization approaches to this
problem, focusing on data-driven, validation-based techniques. In particular,
I present a wrapper approach that uses genetic algorithms for the search comp
onent, using a validation criterion based upon model accuracy and problem comp
lexity, as the fitness measure. Next, I focus on design and configuration of h
igh-level optimization systems (wrappers) for relevance determination and cons
tructive induction, and on integrating these wrappers with elicited knowledge
on attribute relevance and synthesis. I then discuss the relationship between
this model selection criterion and those from the minimum description length (
MDL) family of learning criteria. I then present results on several synthetic
problems on task-decomposable machine learning and on two large-scale commerci
al data-mining and decision-support projects: crop condition monitoring, and l
oss prediction for insurance pricing. Finally, I report experiments using the
Machine Learning in Java (MLJ) and Data to Knowledge (D2K) Java-based visual p
rogramming systems for data mining and information visualization, and several
commercial and research tools. Test set accuracy using a genetic wrapper is si
gnificantly higher than that of decision tree inducers alone and is comparable
to that of the best extant search-space based wrappers.

对Inductive Bias(归纳偏置)的理解的更多相关文章

  1. How Do Vision Transformers Work?[2202.06709] - 论文研读系列(2) 个人笔记

    [论文简析]How Do Vision Transformers Work?[2202.06709] 论文题目:How Do Vision Transformers Work? 论文地址:http:/ ...

  2. AI人工智能专业词汇集

    作为最早关注人工智能技术的媒体,机器之心在编译国外技术博客.论文.专家观点等内容上已经积累了超过两年多的经验.期间,从无到有,机器之心的编译团队一直在积累专业词汇.虽然有很多的文章因为专业性我们没能尽 ...

  3. 【Machine Learning】决策树之ID3算法 (2)

    决策树之ID3算法 Content 1.ID3概念 2.信息熵 3.信息增益 Information Gain 4. ID3 bias 5. Python算法实现(待定) 一.ID3概念 ID3算法最 ...

  4. 【Machine Learning】监督学习、非监督学习及强化学习对比

    Supervised Learning Unsupervised Learning Reinforced Learning Goal: How to apply these methods How t ...

  5. [转载]神经网络偏置项(bias)的设置及作用

    [转载]神经网络偏置项(bias)的设置及作用 原文来自:https://www.cnblogs.com/shuaishuaidefeizhu/p/6832541.html 1.什么是bias? 偏置 ...

  6. 机器学习-学习笔记(一) --> (假设空间 & 版本空间)及 归纳偏好

    机器学习 一.机器学习概念 啥是机器学习 机器学习:假设用P来评估计算机程序在某任务类T上的性能,若一个程序通过利用经验E在T中任务上获得了性能改善,则关于T和P,该程序对E进行了学习 通俗讲:通过计 ...

  7. 遵循统一的机器学习框架理解高斯混合模型(GMM)

    遵循统一的机器学习框架理解高斯混合模型(GMM) 一.前言 我的博客仅记录我的观点和思考过程.欢迎大家指出我思考的盲点,更希望大家能有自己的理解. 本文参考了网络上诸多资料,特别是B站UPshuhua ...

  8. EM算法之不同的推导方法和自己的理解

    EM算法之不同的推导方法和自己的理解 一.前言 EM算法主要针对概率生成模型解决具有隐变量的混合模型的参数估计问题. 对于简单的模型,根据极大似然估计的方法可以直接得到解析解:可以在具有隐变量的复杂模 ...

  9. 浅谈神经网络中的bias

    1.什么是bias? 偏置单元(bias unit),在有些资料里也称为偏置项(bias term)或者截距项(intercept term),它其实就是函数的截距,与线性方程 y=wx+b 中的 b ...

随机推荐

  1. MATLAB 的函数句柄

    MATLAB 的函数句柄: 1.何为函数句柄? 函数句柄也是MATLAB中的一种常见的数据类型, 它的地位类似于其它计算机语言里的函数对象(Javascript,Python),函数指针(C++),或 ...

  2. iptables中ULOG和NFLOG实现分析【转】

    原文地址:http://blog.csdn.net/eydwyz/article/details/52456335 ----------原文如下---------------------------- ...

  3. kubernetes删除pod失败

    一.概述 k8s中删除pod失败,可能是该pod有rc,rs上层控制,而且很有可能,所以删除上层对应的rc,rs,deployment即可: 删除的方法: 1.直接删除rc,rs,deployment ...

  4. golang学习笔记 ---命名

    Go语言中的函数名.变量名.常量名.类型名.语句标号和包名等所有的命名,都遵循一个简单的命名规则:一个名字必须以一个字母(Unicode字母)或下划线开头,后面可以跟任意数量的字母.数字或下划线.大写 ...

  5. 【Java】K-means算法Java实现以及图像切割

    1.K-means算法简述以及代码原型 数据挖掘中一个重要算法是K-means.我这里就不做具体介绍.假设感兴趣的话能够移步陈皓的博客: http://www.csdn.net/article/201 ...

  6. VS2010安装msdn本地帮助

    原文链接:http://www.2cto.com/kf/201210/162057.html 下面我们看看如何安装本地msdn技术帮助文档: 一.如何设置vs2010 按F1键时,打开的是本地文档(帮 ...

  7. SharePoint 2013 Designer工作流——Parallel Block的应用

    参考目录 安装和配置SharePoint 2013 Workflow SharePoint 2013 实现多级审批工作流 在自定义Workflow时,往往会遇到这样场景,某个审批需要被多人查阅,每个查 ...

  8. C++中的#和##运算符

    #和##运算符 #:构串操作符 构串操作符#只能修饰带参数的宏的形参,它将实参的字符序列(而不是实参代表的值)转换成字符串常量 #define STRING(x) #x#x#x #define TEX ...

  9. Django的AutoField字段

    [Django是一个机智的框架] 默认情况下Djang会为ORM中定义的每一张表加上一个自增ID列,并且用这个列来做主键:出于一个MySQL-DBA的工作经历我觉得 Djanog还真是机智:这样么说主 ...

  10. 使用 Zipkin 和 Brave 实现分布式系统追踪(基础篇)

    一.Zipkin 1.1.简介 Zipkin 是一款开源的分布式实时数据追踪系统(Distributed Tracking System),基于 Google Dapper 的论文设计而来,由 Twi ...