引入1:随机变量函数的分布 给定X的概率密度函数为fX(x), 若Y = aX, a是某正实数,求Y得概率密度函数fY(y). 解:令X的累积概率为FX(x), Y的累积概率为FY(y). 则 FY(y) = P(Y <= y) = P(aX <= y) = P(X <= y/a) = FX(y/a), 则 fY(y) = d(FX(y/a)) / dy = 1/a * fX(x/a) 引入2:如何定义信息量 某事件发生的概率小,则该事件的信息量大: 如果两个事件X和Y独立,即p(xy)…
NLP论文解读 原创•作者 | 小欣   论文标题:PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction 论文链接:https://arxiv.org/pdf/2106.09895.pdf 代码:https://github.com/hy-struggle/PRGC 1.前言 1. 论文的相关背景 关系抽取是信息抽取和知识图谱构建的关键任务之一,它的目标是从非结构化的…
1.介绍: 当我们开发一个分类模型的时候,我们的目标是把输入映射到预测的概率上,当我们训练模型的时候就不停地调整参数使得我们预测出来的概率和真是的概率更加接近. 这篇文章我们关注在我们的模型假设这些类都是明确区分的,假设我们是开发一个二分类模型,那么对应于一个输入数据,我们将他标记为要么绝对是正,要么绝对是负.比如,我们输入的是一张图片,来判断这张图片是苹果还是梨子. 在训练过程中,我们可能输入了一张图片表示的是苹果,那么对于这张输入图片的真实概率分布为y=(苹果:1,梨子:0),但是我们的模型…
https://www.cnblogs.com/silent-stranger/p/7987708.html 1.介绍: 当我们开发一个分类模型的时候,我们的目标是把输入映射到预测的概率上,当我们训练模型的时候就不停地调整参数使得我们预测出来的概率和真是的概率更加接近. 这篇文章我们关注在我们的模型假设这些类都是明确区分的,假设我们是开发一个二分类模型,那么对应于一个输入数据,我们将他标记为要么绝对是正,要么绝对是负.比如,我们输入的是一张图片,来判断这张图片是苹果还是梨子. 在训练过程中,我们…
树状结构Java模型.层级关系Java模型.上下级关系Java模型与html页面展示 一.业务原型:公司的组织结构.传销关系网 二.数据库模型 很简单,创建 id 与 pid 关系即可.(pid:parent_id) 三.Java模型 (我们把这张网撒在html的一张表里.其实用ul来展示会简单N多,自己思考为什么LZ会选择放在表里) private class Table {        private Long id; // 当前对象的id         private int x; /…
本文简述了以下内容: 什么是词表示,什么是表示学习,什么是分布式表示 one-hot representation与distributed representation(分布式表示) 基于distributional hypothesis的词表示模型 (一)syntagmatic models(combinatorial relations):LSA(基于矩阵) (二)paradigmatic models(substitutional relations):GloVe(基于矩阵).NPLM(基…
ORM对象关系映射模型的特点: 优点 : 只需要面向对象编程, 不需要面向数据库编写代码. 对数据库的操作都转化成对类属性和方法的操作. 不用编写各种数据库的sql语句. 实现了数据模型与数据库的解耦, 屏蔽了不同数据库操作上的差异. 不在关注用的是mysql.oracle...等. 通过简单的配置就可以轻松更换数据库, 而不需要修改代码. 缺点 : 相比较直接使用SQL语句操作数据库,有性能损失. 根据对象的操作转换成SQL语句,根据查询的结果转化成对象, 在映射过程中有性能损失. Flask…
熵的概念在统计学习与机器学习中真是很重要,熵的介绍在这里:信息熵 Information Theory .今天的主题是最大熵模型(Maximum Entropy Model,以下简称MaxEnt),MaxEnt 是概率模型学习中一个准则,其思想为:在学习概率模型时,所有可能的模型中熵最大的模型是最好的模型:若概率模型需要满足一些约束,则最大熵原理就是在满足已知约束的条件集合中选择熵最大模型.最大熵原理指出,对一个随机事件的概率分布进行预测时,预测应当满足全部已知的约束,而对未知的情况不要做任何主…
参考通俗理解决策树算法中的信息增益 说到决策树就要知道如下概念: 熵:表示一个随机变量的复杂性或者不确定性. 假如双十一我要剁手买一件衣服,但是我一直犹豫着要不要买,我决定买这件事的不确定性(熵)为2.6. 条件熵:表示在直到某一条件后,某一随机变量的复杂性或不确定性. 我在看了这件衣服的评价后,我决定买衣服这件事的不确定性是1.2. 我在线下实体店试穿衣服后,我决定买衣服这件事的不确定性是0.9. 信息增益:表示在知道某一条件后,某一随机变量的不确定性的减少量. 上面条件熵给出了两个: 一个是…