一.论文目标:将差分隐私和频繁项集挖掘结合,主要针对大规模数据. 二.论文的整体思路: 1)预处理阶段: 对于大的数据集,进行采样得到采样数据集并计算频繁项集,估计样本数据集最大长度限制,然后再缩小源数据集:(根据最小的support值,频繁项集之外的项集从源数据集移除)     我们利用字符串匹配去剪切数据集的事务: 2)挖掘阶段: 利用压缩数据集,先构造FP-Tree,隐私预算均匀分配,对真实的结果添加噪声: 3)扰动阶段: 对于候选频繁项集添加拉普拉斯噪声并且输出 通过限制每个事务的长度减…
由于在读文献期间多次遇见KISSME,都引自这篇CVPR,所以详细学习一下. Introduction 度量学习在机器学习领域有很大作用,其中一类是马氏度量学习(Mahalanobis metric learning). 什么是马氏距离?参考该篇文章[传送门] KISS含义为:keep it simple and straightforward Learning a Mahalanobis Metric 对于两个数据点 xi.xj,基于马氏距离的相似度为: 如果两个数据属于同一类,记为 yij…
频繁模式挖掘(Frequent Pattern Mining): 频繁项集挖掘是通常是大规模数据分析的第一步,多年以来它都是数据挖掘领域的活跃研究主题.建议用户参考维基百科的association rule learning 了解更多信息.MLlib支持了一个并行的FP-growth,FP-growth是很受欢迎的频繁项集挖掘算法.   FP-growth: FP-growth算法在论文Han et al., Mining frequent patterns without candidate…
目录 概 主要内容 Differential Privacy insensitivity Lemma1 Proposition1 如何令网络为-DP in practice Lecuyer M, Atlidakis V, Geambasu R, et al. Certified Robustness to Adversarial Examples with Differential Privacy[C]. ieee symposium on security and privacy, 2019:…
原文链接:An Introduction to Differential Privacy 差分隐私算法可以允许分析人员执行良性的聚合分析,同时保证个人隐私得到切实的保护.. 背景数据分析中的隐私保护技术已有数十年的历史,差分隐私算法是这一领域的最新技术.两个早期概念直接影响了差分隐私:①最小查询集大小②Dalenius的统计披露定义 最小查询集大小旨在确保聚合查询的安全性,最小查询集大小是一种约束,只在确保聚合查询不会泄露有关个人的信息,给定某个配置的阈值量T,其确保每个聚合查询在至少有T个记录…
原文链接:Deep Learning with Differential Privacy abstract:新的机器学习算法,差分隐私框架下隐私成本的改良分析,使用非凸目标训练深度神经网络. 数学中最优化问题的一般表述是求取$  x * \in \chi $ 使得 $ f(x * ) = min\{ f(x):x \in \chi \}  $,其中x是n维向量, $  \chi $  是x的可行域,f是$ \chi $ 上的实值函数.凸优化问题是指$  \chi $ 是闭合的凸集且f是$  \c…
1 前置知识 本部分只对相关概念做服务于差分隐私介绍的简单介绍,并非细致全面的介绍. 1.1 随机化算法 随机化算法指,对于特定输入,该算法的输出不是固定值,而是服从某一分布. 单纯形(simplex):一个\(k\)维单纯形是指包含\(k+1\)个顶点的凸多面体,一维单纯形是一条线段,二维单纯形是一个三角形,三维单纯形是一个四面体,以此类推推广到任意维."单纯"意味着基本,是组成更复杂结构的基本构件. 概率单纯形(probability simplex):是一个数学空间,上面每个点代…
Large Scale Distributed Semi-Supervised Learning Using Streaming Approximation Google  2016.10.06 官方 Blog 链接:https://research.googleblog.com/2016/10/graph-powered-machine-learning-at-google.html 今天讲的是一个基于 streaming approximation 的大规模分布式半监督学习框架,出自 Goo…
一.论文整体思路: 作者提出了一种基于前缀树的数据结构,NegNodeset,其实是对之前前缀树的一种改进,主要区别在于采用了位图编码,通过这种数据结构产生的算法称为negFIN. negFIN算法高效有三个原因 二.问题定义 I= {i1,i2,…, init} 表示事务数据库所有项的集合,T表示每个事务,T⊆I ,DB = {T1,T2,…, Tnt} 是所有事务的集合 P称为k-项集,如果P⊆T ,那么事务T包含了项集P,support(P)是DB中包含P的百分比,如果support(P)…
给定交易数据集,FP增长的第一步是计算项目频率并识别频繁项目.与为同样目的设计的类似Apriori的算法不同,FP增长的第二步使用后缀树(FP-tree)结构来编码事务,而不会显式生成候选集,生成的代价通常很高.第二步之后,可以从FP树中提取频繁项集. import org.apache.spark.sql.SparkSession import org.apache.spark.mllib.fpm.FPGrowth import org.apache.spark.rdd.RDD val spa…