1.二维随机变量(X,Y)的联合分布函数: F(x,y)=P(X≤x,Y≤y) 2.二维随机变量(X,Y)关于X的边缘分布函数: FX(x)=P(X≤x) =P(X≤x,Y<+∞) =F(x,+∞) 3.边缘分布函数与边缘概率密度 $f_X(x)=\int_{-\infty}^{+\infty}f(x,y)dy$ $f_Y(y)=\int_{-\infty}^{+\infty}f(x,y)dx$ $F_X(x)=\int_{-\infty}^{x}f_X(x)dx=\int_{-\infty}^…
概率和信息论. 概率论,表示不确定性声明数学框架.提供量化不确定性方法,提供导出新不确定性声明(statement)公理.人工智能领域,概率法则,AI系统推理,设计算法计算概率论导出表达式.概率和统计理论分析AI系统行为.概率论提出不确定声明,在不确定性存在情况下推理.信息论量化概率分布不确定性总量.Jaynes(2003).机器学习经常处理不确定量,有时处理随机(非确定性)量.20世纪80年代,研究人员对概率论量化不确定性提出信服论据.Pearl(1998). 不确定性来源.被建模系统内存的随…
1.随机变量的定义 2.随机变量的类型: 若随机变量X的可能取值是有限个或可列个, 则称X为离散型随机变量. 反之,则称X为非离散型随机变量. 若随机变量X的可能取值“连续”(“不间断”),则称X 为连续型随机变量. 3.对随机变量X概率特性的刻画: 分布函数F 概率分布或分布率(离散型随机变量)P 概率密度(连续型随机变量)f 4.离散型随机变量的常见分布: (1)  0-1分布(两点分布.伯努利分布) P(X=k)=pk(1-p)k (2) 二项分布(0-1分布是n为1的情况) 多重Bern…
1.两点分布 clc clear a=rand(1,10); for ii=1:10 if a(ii)<0.2 a(ii)=0; else a(ii)=1; end end a x=0的概率为0.2,x=1的概率为0.8:两点分布 clc clear a=rand(1,10); b=(a>0.2) 循环用向量化表示 2.伯努利分布(二项分布) clc clear N=1000000; r=binornd(19,0.3,1,N);%A事件发生概率0.3,重复19次.事件A发生的次数.仿真1000…
一.数学期望 1.离散型随机变量的数学期望 设X为离散随机变量,其概率分布为:P(X=xk)=pk 若无穷级数$\sum_{k=1}^{+\infty}x_kp_k$绝对收敛 (即满足$\sum_{k=1}^{+\infty}|x_kp_k|$收敛) 则称其为X的数学期望,记作$E(X)=\sum_{k=1}^{+\infty}x_kp_k$ 二项分布,X~B(n,p),E(X)=np 泊松分布,X~P(λ),E(X)=λ 超几何分布,X~H(N,M,n),E(X)=nM/N 几何分布,X~GE…
Part1. 随机事件 1-1.随机试验 随机试验:可以在相同条件下重复进行,每次试验的结果不止一个,事先知道所有可能的结果但不确定是哪一个的试验. 举例:重复的抛出一枚均匀的硬币就是一个随机试验,事先知道它的结果,但是不知道究竟是正面还是反面. 1-2.随机事件 定义1:随机试验可能的结果,称为样本空间,它的子集就叫做随机事件. 定义2:在一定条件下,可能发生也可能不发生的事件叫做随机事件. 举例:抛出硬币后可能正面落地,可能反面落地,那么"抛出硬币后正面落地"就是一个随机事件,它可…
今天给大家带来的这篇文章是关于机器学习的,机器学习有其独特的数学基础,我们用微积分来处理变化无限小的函数,并计算它们的变化:我们使用线性代数来处理计算过程:我们还用概率论与统计学建模不确定性. 在这其中,概率论有其独特的地位,模型的预测结果.学习过程.学习目标都可以通过概率的角度来理解. 与此同时,从更细的角度来说,随机变量的概率分布也是我们必须理解的内容.在这篇文章中,项目作者介绍了所有你需要了解的统计分布,他还提供了每一种分布的实现代码. 学习资料!(https://jq.qq.com/?_…
转载请标明出处: http://www.cnblogs.com/tiaozistudy/p/hypothesis_testing_based_feature_selection.html Filter特征选择方法是一种启发式方法,其基本思想是:制定一个准则,用来衡量每个特征/属性,对目标属性的重要性程度,以此来对所有特征/属性进行排序,或者进行优选操作.常用的衡量准则有假设检验的p值.相关系数.互信息.信息增益等.本文基于候选属性和目标属性间关联性的假设检验,依据p值的大小量化各候选属性的重要性…
Machine Learning Algorithms Study Notes 高雪松 @雪松Cedro Microsoft MVP 本系列文章是Andrew Ng 在斯坦福的机器学习课程 CS 229 的学习笔记. Machine Learning Algorithms Study Notes 系列文章介绍 2    Supervised Learning    3 2.1    Perceptron Learning Algorithm (PLA)    3 2.1.1    PLA --…
原文地址:<如何做Gibbs采样(how to do gibbs-sampling)> 随机模拟 随机模拟(或者统计模拟)方法最早有数学家乌拉姆提出,又称做蒙特卡洛方法.蒙特卡洛是一个著名的赌场,赌博总是和统计有着密切的关系,所以这个命名风趣而贴切,被广为接受. 随机模拟的一个重要问题就是给定一个概率分布\(p(x)\),如何生成它的样本.均匀分布\(Uniform(0,1)\)的样本可以通过线性同余发生器生成的伪随机数来模拟.常见的概率分布,无论是离散的还是连续的分布,都可以基于\(Unif…