Dirichlet 卷积学习笔记

数论函数:数论函数亦称算术函数,一类重要的函数,指定义在正整数集上的实值或复值函数,更一般地,也可把数论函数看做是某一整数集上定义的函数。

然而百科在说什么鬼知道呢,感性理解一下,数论函数的定义域是正整数,值域也是正整数。

数论函数的相关运算与性质

  • 设有数论函数\(\bf{h,f,g}\)。
  1. 加法运算

    \((\mathbf {f}+\mathbf {g})(n)=\mathbf {f}(n)+\mathbf {g}(n)\)

    即每项相加

  2. 数乘运算

    \((x\mathbf f )(n)=x\mathbf f(n)\)

    即每项相乘

  3. 卷积乘\(*\)

    若\(\mathbf h=\mathbf f*\mathbf g\)

    那么\(\mathbf h(n)=\sum\limits_{i|n}\mathbf f(i)\mathbf g(\frac{n}{i})\)

  4. 交换律

    \(\bf f*g=g*f\)

    显然

  5. 结合律

    \((\mathbf f*\mathbf g)*\mathbf h=\mathbf f*(\mathbf g*\mathbf h)\)

    意会

  6. 分配律

    \((\mathbf f+ \mathbf g)*\mathbf h=\mathbf f*\mathbf h+\mathbf g*\mathbf h\)

    意会

  7. 单位元

    定义数论函数\(\epsilon(n)=[n=1]\)

    对任意\(\mathbf f\),有\(\mathbf f=\mathbf f*\epsilon\)

    显然

  8. 逆元

    对于任意的\(\mathbf f(1)\not=0\)的数论函数,存在一个\(\mathbf g\)使得\(\mathbf g*\mathbf f=\epsilon\)

    对于\(\mathbf g\)有构造

    \[\mathbf g(n)=\frac{1}{\mathbf f(1)}([n=1]-\sum_{i|n,i\not=1}\mathbf f(i)\mathbf g({\frac{n}{i}}))
    \]

    证明代入卷积计算就可以了。

  9. 积性函数

    满足若\(a \bot b\),那么\(\mathbf f(ab)=\mathbf f(a)\mathbf f(b)\)的数论函数被成为积性函数。

  10. 两个积性函数的卷积是积性函数

    证明重要吗

  11. 一个积性函数的逆也是积性函数

    证明重要吗

  12. 任何一个积性函数都可以线性筛出来

常见积性函数及其性质

令\(n=\prod\limits_{i=1}^k p_i^{c_i}\)

  • \(\mathbf 1(n)=1\),常函数
  • \(\mathbf {Id}(n)=n\),常函数
  • \(\mathbf {Id}^k(n)=n^k\),常函数的一般形式
  • \(\epsilon(n)=[n=1]\),单位元
  • \(\mu(n) = [\max(c_1,c_2,\dots,c_k) \le 1](-1)^k\) ,莫比乌斯函数
  • \(\varphi(n)=n\prod\limits_{i=1}^k(1-\frac{1}{p_i})\),欧拉函数
  • \(\mathbf d(n)=\sum\limits_{d|n}1\),约数个数
  • \(\sigma(n)=\sum\limits_{d|n}d\),约数和
  • \(\lambda(n)=(-1)^k\)
  1. 莫比乌斯函数

    我们尝试把\(\mu\)给定义出来,定义\(\mu\)为\(\mathbf 1\)的逆。

    则有\(\mu * \mathbf 1=\epsilon\)

    换成我们熟悉的形式就是\(\sum_{d|n}\mu(d)=[n=1]\)

    尝试构造\(\mu\),显然\(\mu(1)=1\)。

    然后发现对于质数\(p\),满足\(\sum_{d|p^k}\mu=0\),即\(1+\mu(p)+\mu(p^1)+\dots+\mu_(p^k)=0\)。

    通过一些简单的反证可以得到\(\mu(p^k)=-[k\le 1],k\not=0\)

    因为\(\mathbf1\)是积性函数,所以\(\tt{Ta}\)的逆\(\mu\)也是积性函数。

    然后我们就可以得到\(Ta\)的函数式,即

    \(\mu(n) = [\max(c_1,c_2,\dots,c_k) \le 1](-1)^k\)

    或者说是

    \[\mu(n)=\left\{\begin{aligned}(-1)^k \ \ if \ squarefree \\0 \ \ \ \ \ \ \ \ \ \ \ \ \ ohterwise\\\end{aligned}\right.
    \]

    特殊的,\(\mu(1)=1\).

    \(squarefree\) 表示对\(n\),\(\forall c_i=1\).

    之类的一些定义。

    • 莫比乌斯反演

      若\(\mathbf g=\mathbf f *\mathbf 1\),那么\(\mu*\mathbf g=\mathbf f*\mu*\mathbf 1\),即\(\mathbf f=\mu*\mathbf g\)

      换成熟悉的形式,若\(\mathbf g(n)=\sum\limits_{d|n}\mathbf f(d)\),那么$\mathbf f(n)=\sum\limits_{d|n} \mu(d)\times \mathbf g(\frac{n}{d}) $,于是我们较为简单的证明了反演。

      对于实际中更加常用的第二类反演,我们可以定义一种类似与卷积的新运算进行证明。

    筛法:

    for(int i=2;i<=N;i++)
    {
    if(!ispri[i])
    {
    mu[i]=-1;
    pri[++cnt]=i;
    }
    for(int j=1;j<=cnt&&pri[j]*i<=N;j++)
    {
    ispri[i*pri[j]]=1;
    if(i%pri[j]==0) break;
    else mu[i*pri[j]]=-mu[i];
    }
    }
  2. 欧拉函数

    其实这个也可以定义出来的,不过从意义的角度说明\(\tt{Ta}\)会更加的自然。

    \(\varphi(n)\)代表\(1 \sim n-1\)中与\(n\)互质的数的个数,考虑证明\(\tt{Ta}\)的计算式。

    可以用容斥说明一波,不过这个用用和积性函数有关的东西叭。

    \(\varphi(p^k)=p^k-p^{k-1}=p^k(1-\frac{1}{p})\)

    唯一分解\(n=\prod\limits_{i=1}^k p_i^{c_i}\)

    那么\(\varphi(n)=\prod\limits_{i=1}^kp_i^{c_i}(1-\frac{1}{p_i})=n\prod\limits_{i=1}^k(1-\frac{1}{p_i})\)

    然后我们考虑证明\(Ta\)的一个性质,\(\varphi *\mathbf 1=\mathbf {Id}\),也就是我们熟悉的\(\sum_{d|n}\varphi(d)=n\)。

    证明起来很简单,设\(\mathbf t=\varphi *\mathbf 1\),那么\(\mathbf t\)为积性函数,我们先搞出\(\tt{Ta}\)的素数幂的式子,然后乘起来就行了。

    筛法

    for(int i=2;i<=N;i++)
    {
    if(!ispri[i])
    {
    pri[++cnt]=i;
    phi[i]=i-1;
    }
    for(int j=1;j<=cnt&&i*pri[j]<=N;j++)
    {
    ispri[i*pri[j]]=1;
    if(i%pri[j]==0)
    {
    phi[i*pri[j]]=phi[i]*pri[j];
    break;
    }
    else
    fphi[i*pri[j]]=phi[i]*(pri[j]-1);
    }
    }
  3. 其他相关性质

    • \(\varphi *\mathbf 1=\mathbf {Id}\Rightarrow \varphi=\mu *\mathbf {Id}\)

    • \(\mathbf d=\mathbf1 *\mathbf1 \Rightarrow \mu*\mathbf d=\mathbf1\)

    • \(\sigma=\mathbf {Id}*\mathbf 1 \Rightarrow \mathbf {Id}=\sigma*\mu\)或\(\sigma=\mathbf {Id}*\mathbf 1 \Rightarrow \sigma=\varphi*\mathbf d\)

Dirichlet 卷积学习笔记的更多相关文章

  1. LDA-Latent Dirichlet Allocation 学习笔记

    以下内容主要基于<Latent Dirichlet Allocation>,JMLR-2003一文,另加入了一些自己的理解,刚开始了解,有不对的还请各位指正. LDA-Latent Dir ...

  2. [DL学习笔记]从人工神经网络到卷积神经网络_1_神经网络和BP算法

    前言:这只是我的一个学习笔记,里边肯定有不少错误,还希望有大神能帮帮找找,由于是从小白的视角来看问题的,所以对于初学者或多或少会有点帮助吧. 1:人工全连接神经网络和BP算法 <1>:人工 ...

  3. ufldl学习笔记和编程作业:Feature Extraction Using Convolution,Pooling(卷积和汇集特征提取)

    ufldl学习笔记与编程作业:Feature Extraction Using Convolution,Pooling(卷积和池化抽取特征) ufldl出了新教程,感觉比之前的好,从基础讲起.系统清晰 ...

  4. 卷积神经网络(CNN)学习笔记1:基础入门

    卷积神经网络(CNN)学习笔记1:基础入门 Posted on 2016-03-01   |   In Machine Learning  |   9 Comments  |   14935  Vie ...

  5. 深度学习笔记 (一) 卷积神经网络基础 (Foundation of Convolutional Neural Networks)

    一.卷积 卷积神经网络(Convolutional Neural Networks)是一种在空间上共享参数的神经网络.使用数层卷积,而不是数层的矩阵相乘.在图像的处理过程中,每一张图片都可以看成一张“ ...

  6. CNN学习笔记:卷积神经网络

    CNN学习笔记:卷积神经网络 卷积神经网络 基本结构 卷积神经网络是一种层次模型,其输入是原始数据,如RGB图像.音频等.卷积神经网络通过卷积(convolution)操作.汇合(pooling)操作 ...

  7. CNN学习笔记:卷积运算

    CNN学习笔记:卷积运算 边缘检测 卷积 卷积是一种有效提取图片特征的方法.一般用一个正方形卷积核,遍历图片上的每一个像素点.图片与卷积核重合区域内相对应的每一个像素值乘卷积核 .内相对应点的权重,然 ...

  8. UFLDL深度学习笔记 (六)卷积神经网络

    UFLDL深度学习笔记 (六)卷积神经网络 1. 主要思路 "UFLDL 卷积神经网络"主要讲解了对大尺寸图像应用前面所讨论神经网络学习的方法,其中的变化有两条,第一,对大尺寸图像 ...

  9. 卷积神经网络用语句子分类---Convolutional Neural Networks for Sentence Classification 学习笔记

    读了一篇文章,用到卷积神经网络的方法来进行文本分类,故写下一点自己的学习笔记: 本文在事先进行单词向量的学习的基础上,利用卷积神经网络(CNN)进行句子分类,然后通过微调学习任务特定的向量,提高性能. ...

随机推荐

  1. Karma与TSLint

    TSLint TSLint是一个可扩展的静态分析工具,用于检查TypeScript代码的可读性,可维护性和功能性错误.收到现代编辑和构建系统的广泛支持,并且可以使用您自己的路由,配置和格式化. 安装 ...

  2. 【转】lvs、nginx、haproxy转发模式优缺点总结

    原文地址: https://yq.aliyun.com/ziliao/78374 一.LVS转发模式 LVS是章文嵩博士写的一个工作于四层的高可能性软件.不像后两者支持七层转发,不过也正因为其简单,所 ...

  3. Kubernetes-----Endpoints

    Endpoints是实现实际服务的端点集合. Kubernetes在创建Service时,根据Service的标签选择器(Label Selector)来查找Pod,据此创建与Service同名的En ...

  4. Linux内核学习笔记(1)-- 进程管理概述

    一.进程与线程 进程是处于执行期的程序,但是并不仅仅局限于一段可执行程序代码.通常,进程还要包含其他资源,像打开的文件,挂起的信号,内核内部数据,处理器状态,一个或多个具有内存映射的内存地址空间及一个 ...

  5. RNN: Feed Forward, Back Propagation Through Time and Truncated Backpropagation Through Time

    原创作品,转载请注明出处哦~ 了解RNN的前向.后向传播算法的推导原理是非常重要的,这样, 1. 才会选择正确的激活函数: 2. 才会选择合适的前向传播的timesteps数和后向传播的timeste ...

  6. C#判断字符串中是否有数字

    // <summary> /// 提取字符串中的数字字符串 /// </summary> /// <param name="str"></ ...

  7. Qt中容器类应该如何存储对象

    Qt提供了丰富的容器类型,如:QList.QVector.QMap等等.详细的使用方法可以参考官方文档,网上也有很多示例文章,不过大部分文章的举例都是使用基础类型:如int.QString等.如果我们 ...

  8. Friends and Cookies(思维)

    Abood's birthday has come, and his n friends are aligned in a single line from 1 to n, waiting for t ...

  9. 四则运算3+psp0

    题目要求: 1.程序可以判断用户的输入答案是否正确,如果错误,给出正确答案,如果正确,给出提示. 2.程序可以处理四种运算的混合算式. 3.要求两人合作分析,合作编程,单独撰写博客. 团队成员:张绍佳 ...

  10. HTML&CSS实体

    <!DOCTYPE html> <html> <head> <meta charset="utf-8" /> <title&g ...