title: 【概率论】4-1:随机变量的期望(The Expectation of a Random Variable Part I)

categories:

- Mathematic

- Probability

keywords:

  • Expectation

    toc: true

    date: 2018-03-20 09:48:55



Abstract: 本文主要介绍期望的基础之知识,第一部分介绍连续和离散随机变量的期望。

Keywords: Expectation

开篇废话

好像大家比较喜欢关于学习方面的废话,那么以后就不说社会现象了,哈哈哈。

期望是整个这一章的基础,概率论学习例子最重要,前面几节例子都写的不多,所以让大家多看书,博客只能算个总结性的东西,而期望这个概念更是需要用练习去理解,我做数学的目的是为了研究机器学习,不是为了做习题,但是做习题是最快速的学数学的方法。

为了使得基础扎实,所以把本来可以一篇完成的博客拆分成了两篇,第一篇写离散和连续随机变量的期望,下一篇写随机变量函数的期望。

本章引言

一个随机变量的全部信息被保存在他的分布中,当事件到随机变量的确定后,随机变量的分布唯一描述这个随机变量的全部性质。

但是整个分布包含太多信息了,比如一个复杂的分布,参数可能有几百上千个,有些性质就变得不那么明显了。

举个通俗的例子,我们描述一个人的身材(把身材当做随机变量),最完整的方法就像做CT,把整个人的三维模型数据采集出来,这就相当于其分布函数,但是这个数据量也好,耗时也好,都是非常大的,而且有些数据也没啥大作用,我们可能只关心这个人的射高体重,就能大概猜测出来这个人的大概样子,而不关心他的脑袋有多大,眼睛有多大。

这个例子是个很通俗的解释,但是类比的很恰当(为自己鼓掌)。

我们的目的就像找到身材中的身高和体重一样,找到分布中的某几个关键数值,这些数值可以反映出分布的某些重要性质——期望!

Expectation for a Discrete Distribution

先举个不切实际的例子,买股票,通过某种计算,我们知道了某只股票的赚钱的分布,只有两种请款个,一种是赚10块钱,概率是90%,一种是赔100块钱,概率是10%。那么我们要不要买这只股票。

分析,首先事件是两个,一个是赚10元,一个是赔100,那么我们把这两个事件映射成随机变量 10,-100,那么离散分布:Pr(10)=0.9,Pr(−100)=0.1Pr(10)=0.9,Pr(-100)=0.1Pr(10)=0.9,Pr(−100)=0.1 我们可能赚多少钱,相当于随机变量的加权平均,也就是 E=10×0.9+(−100)×0.1=−1E=10\times 0.9+(-100)\times 0.1 =-1E=10×0.9+(−100)×0.1=−1 我们买这只股票的赚钱期望值是-1 ,这个-1其实是没有意义的,因为我们从事件到随机变量的映射其实只做了两个事件的一对一映射,我们得到的 -1 这个随机变量根本不知道对应什么事件,但是我们可以把第一步的从事件到随机变量的映射改成一个线性的函数,也就是收益 aaa (可正可负)对应是随机变量是 X=aX=aX=a 那么这样就存在逆映射,随机变量-1对应赔了一块钱。

Definition Mean of Bounded Discrete Random Variable. Let XXX be a bounded discrete random variable whose p.f. is fff .the expectation of XXX denoted by E(X)E(X)E(X) ,is a number define as follow:

E(X)=∑All xxf(x)
E(X)=\sum_{\text{All }x}xf(x)
E(X)=All x∑​xf(x)

The expectation of XXX is also referred to as the mean of XXX or the expected value of XXX

上面定义了一个有限的离散分布的期望,每个分布对应唯一的期望,有限的离散分布都有期望,但是后面要说的连续的分布可能没有期望。

一个例子,但是很重要,重要到可以当做一个定理:

一个随机变量X有一个参数为p的伯努利分布,那么他的期望是什么?

E(X)=p×1+(1−p)×0=p
E(X)=p\times 1+(1-p)\times 0=p
E(X)=p×1+(1−p)×0=p

简单的例子,但是是后面很多求解的基础组成,这个值得我们关注一下。

上面我们讲的都是有限个离散分布的情况,当X是无限的时候其实也可以求期望,也就是求所有可能的值的加权平均数

Definition Mean of General Discrete Random Variable. Let X be a discrete random variable whose p.f. is f.Suppose that at least one of the following sums is finite:

∑Positive xxf(x),∑Negative xxf(x)
\sum_{\text{Positive }x}xf(x) , \sum_{\text{Negative }x}xf(x)
Positive x∑​xf(x),Negative x∑​xf(x)

Then the mean,expectation,or expected value of XXX is said to exist and is defined to be

E(x)=∑All xxf(x)
E(x)=\sum_{\text{All } x}xf(x)
E(x)=All x∑​xf(x)

以上为节选内容,完整原文地址:https://www.face2ai.com/Math-Probability-4-1-The-Expectation-of-a-Random-Variable-P1转载请标明出处

【概率论】4-1:随机变量的期望(The Expectation of a Random Variable Part I)的更多相关文章

  1. 【概率论】4-1:随机变量的期望(The Expectation of a Random Variable Part II)

    title: [概率论]4-1:随机变量的期望(The Expectation of a Random Variable Part II) categories: - Mathematic - Pro ...

  2. 【概率论】3-8:随机变量函数(Functions of a Random Variable)

    title: [概率论]3-8:随机变量函数(Functions of a Random Variable) categories: Mathematic Probability keywords: ...

  3. 【概率论】3-9:多随机变量函数(Functions of Two or More Random Variables)

    title: [概率论]3-9:多随机变量函数(Functions of Two or More Random Variables) categories: - Mathematic - Probab ...

  4. 【概率论】3-1:随机变量和分布(Random Variables and Discrete Distributions)

    title: [概率论]3-1:随机变量和分布(Random Variables and Discrete Distributions) categories: Mathematic Probabil ...

  5. 最大期望算法 Expectation Maximization概念

    在统计计算中,最大期望(EM,Expectation–Maximization)算法是在概率(probabilistic)模型中寻找参数最大似然估计的算法,其中概率模型依赖于无法观测的隐藏变量(Lat ...

  6. 【概率论】3-2:连续分布(Continuous Distributions)

    title: [概率论]3-2:连续分布(Continuous Distributions) categories: Mathematic Probability keywords: Continuo ...

  7. 图解AI数学基础 | 概率与统计

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/83 本文地址:http://www.showmeai.tech/article-det ...

  8. Machine Learning and Data Mining(机器学习与数据挖掘)

    Problems[show] Classification Clustering Regression Anomaly detection Association rules Reinforcemen ...

  9. 学习笔记DL008:概率论,随机变量,概率分布,边缘概率,条件概率,期望、方差、协方差

    概率和信息论. 概率论,表示不确定性声明数学框架.提供量化不确定性方法,提供导出新不确定性声明(statement)公理.人工智能领域,概率法则,AI系统推理,设计算法计算概率论导出表达式.概率和统计 ...

随机推荐

  1. SAS学习笔记40 SAS程序运行过程

    当我们提交运行一个DATA步程序后,具体发生了什么事情. SAS程序与其他程序一样,在运行时都要经过两个阶段:编译(Compilation).执行(Execution) 程序首先经过编译阶段,该阶段主 ...

  2. Maven配置、使用

    一:什么是Maven Maven项目对象模型(POM),可以通过一小段描述信息来管理项目的构建,报告和文档的项目管理工具软件. Maven提供了开发人员构建一个完整的生命周期框架,开发人员可以自动完成 ...

  3. Hinton胶囊网络后最新研究:用“在线蒸馏”训练大规模分布式神经网络

    Hinton胶囊网络后最新研究:用“在线蒸馏”训练大规模分布式神经网络 朱晓霞发表于目标检测和深度学习订阅 457 广告关闭 11.11 智慧上云 云服务器企业新用户优先购,享双11同等价格 立即抢购 ...

  4. 如何将 HTML 转换为 XHTML

    1.添加一个 XHTML <!DOCTYPE> 到你的网页中 2.添加 xmlns 属性添加到每个页面的html元素中 3.改变所有的元素为小写 4.关闭所有的空元素 5.修改所有的属性名 ...

  5. JSQI网站大事表 | Website Landmark

    2016-07-01 网站前身jsqi.50vip.com上线.2016-07-12 购买jsqi.org域名,替代之前的二级域名.2016-12-12 申请ChinaDMOZ收录,瞬间申请通过.20 ...

  6. JS中this和call

    首先来了解一下JS中this的原理: 要访问自己的属性就必须使用 this.属性名 1.this总是指向它的直接调用者: var a={ user:'Artimis', fn:function(){ ...

  7. 【小知识点】如何通过jq获取textarea的值

    textarea和input本质差不多,只不过input是一行文本,textarea是多行文本. 所以获取textarea的值的方法和获取input的值的方法是一致的, $('textarea').v ...

  8. 从graphql endpoint获取schema文件

    graphql server端有更新,client端需要重新获取schema文件用于创建新的api request,下面简要记录如何从graphql endpoint获取schema文件 You ca ...

  9. iOS音频频谱动画,仿QQ录音频谱

    先上效果图: display.gif 有需要的请移步GitHub下载: https://github.com/HuangGY1993/GYSpectrum 用法很简单,示例: SpectrumView ...

  10. Java实现 Cookie的生成与读取

    今天学习的时候发现Cookie挺有意思的,就自己网上找点例子,自己敲点代码熟练下,现在就记录下来,分享一下. 什么是cookie?? Cookie 是一小段文本信息,伴随着用户请求和页面在 Web 服 ...