阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis
阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis
关于:
- 首次发表日期:2024-07-19
- Mathematics for Machine Learning官方链接: https://mml-book.com
- ChatGPT和KIMI机翻,人工润色
- 非数学专业,如有错误,请不吝指出
2.6.1 Basis and Rank (基与秩)
定义 2.13(生成集与张成)。考虑一个向量空间 \(V=(\mathcal{V}, +, \cdot)\) 和一组向量 \(\mathcal{A}=\left\{\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\right\} \subseteq \mathcal{V}\)。如果 \(\mathcal{V}\) 中的每一个向量 \(\boldsymbol{v}\) 都可以表示为 \(\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\) 的线性组合,则称 \(\mathcal{A}\) 为 \(V\) 的一个生成集。向量 \(\mathcal{A}\) 中所有向量的线性组合构成的集合称为 \(\mathcal{A}\) 的张成。如果 \(\mathcal{A}\) 张成了向量空间 \(V\),我们写作 \(V=\operatorname{span}[\mathcal{A}]\) 或 \(V=\operatorname{span}\left[\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\right]\)。
生成集是张成向量(子)空间的向量集合,即每一个向量都可以表示为生成集中向量的线性组合。现在,我们将更加具体地描述张成向量(子)空间的最小生成集。
定义 2.14(基)。考虑一个向量空间 \(V=(\mathcal{V}, +, \cdot)\) 和 \(\mathcal{A} \subseteq \mathcal{V}\)。如果不存在比 \(\mathcal{A}\) 更小的集合 \(\tilde{\mathcal{A}} \subsetneq \mathcal{A} \subseteq \mathcal{V}\) 能张成 \(V\),那么\(V\) 的生成集 \(\mathcal{A}\) 被称为最小生成集。\(V\) 的每一个线性无关的生成集都是最小的,并且被称为 \(V\) 的一个基。
设 \(V=(\mathcal{V},+, \cdot)\) 是一个向量空间,\(\mathcal{B} \subseteq \mathcal{V}, \mathcal{B} \neq \emptyset\)。那么,以下陈述是等价的:
- \(\mathcal{B}\) 是 \(V\) 的一个基。
- \(\mathcal{B}\) 是一个最小生成集。
- \(\mathcal{B}\) 是 \(V\) 中的最大线性无关向量集,即向这个集合中添加任何其他向量都会使其线性相关。
- 每一个向量 \(\boldsymbol{x} \in V\) 都是来自 \(\mathcal{B}\) 的向量的线性组合,并且每个线性组合都是唯一的,即:
\tag{2.77}
\]
且 \(\lambda_i, \psi_i \in \mathbb{R}, \boldsymbol{b}_i \in \mathcal{B}\),这意味着 \(\lambda_i=\psi_i, i=1, \ldots, k\)。
基是一个最小的生成集和一个最大的线性无关向量集合。
**例2.16**
- 在 \(\mathbb{R}^3\) 中,标准基是
1 \\
0 \\
0
\end{array}\right],\left[\begin{array}{l}
0 \\
1 \\
0
\end{array}\right],\left[\begin{array}{l}
0 \\
0 \\
1
\end{array}\right]\right\}
\]
- \(\mathbb{R}^3\) 中不同的基是
1 \\
0 \\
0
\end{array}\right],\left[\begin{array}{l}
1 \\
1 \\
0
\end{array}\right],\left[\begin{array}{l}
1 \\
1 \\
1
\end{array}\right]\right\}, \mathcal{B}_2=\left\{\left[\begin{array}{l}
0.5 \\
0.8 \\
0.4
\end{array}\right],\left[\begin{array}{l}
1.8 \\
0.3 \\
0.3
\end{array}\right],\left[\begin{array}{c}
-2.2 \\
-1.3 \\
3.5
\end{array}\right]\right\} .
\]
- 集合
1 \\
2 \\
3 \\
4
\end{array}\right],\left[\begin{array}{c}
2 \\
-1 \\
0 \\
2
\end{array}\right],\left[\begin{array}{c}
1 \\
1 \\
0 \\
-4
\end{array}\right]\right\}
\]
是线性无关的,但不是 \(\mathbb{R}^4\) 的生成集(也不是基):例如,向量 \([1,0,0,0]^{\top}\) 不能通过 \(\mathcal{A}\) 中元素的线性组合得到。
注释 每个向量空间 \(V\) 都有一个基 \(\mathcal{B}\)。前面的例子表明,一个向量空间 \(V\) 可以有许多不同的基,即没有唯一的基。然而,所有的基都具有相同数量的元素,即基向量。
我们只考虑有限维向量空间 \(V\)。在这种情况下,\(V\) 的维数是其基向量的数量,记作 \(\operatorname{dim}(V)\)。如果 \(U \subseteq V\) 是 \(V\) 的子空间,则 \(\operatorname{dim}(U) \leqslant \operatorname{dim}(V)\),且当且仅当 \(U=V\)时 \(\operatorname{dim}(U) = \operatorname{dim}(V)\) 。直观地说,向量空间的维数可以理解为这个空间中独立方向的数量。
注释 向量空间的维数不一定是向量中元素的数量。例如,向量空间 \(V=\operatorname{span}[\left[\begin{array}{l}0 \\ 1\end{array}\right]]\) 是一维的,尽管基向量具有两个元素。
向量空间的维数对应于其基向量的数量。
注释 子空间 \(U=\operatorname{span}\left[\boldsymbol{x}_1, \ldots, \boldsymbol{x}_m\right] \subseteq \mathbb{R}^n\) 的一个基可以通过以下步骤找到:
- 将张成向量写成矩阵 \(\boldsymbol{A}\) 的列。
- 求解矩阵 \(\boldsymbol{A}\) 的行阶梯形式。
- 与枢轴列相关联的张成向量构成 \(U\) 的一个基。
2.6.2 Rank(秩)
一个矩阵 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的线性无关列的数量等于线性无关行的数量,并且被称为 \(\boldsymbol{A}\) 的秩,表示为 \(\operatorname{rk}(\boldsymbol{A})\)。
注释。矩阵的秩具有一些重要性质:
- \(\operatorname{rk}(\boldsymbol{A})=\operatorname{rk}\left(\boldsymbol{A}^{\top}\right)\),即,列秩等于行秩。
- \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的列张成一个子空间 \(U \subseteq \mathbb{R}^m\),其维数为 \(\operatorname{dim}(U)=\operatorname{rk}(\boldsymbol{A})\)。稍后我们将这个子空间称为像或值域。通过应用高斯消元法到 \(\boldsymbol{A}\) 可以找到 \(U\) 的一个基,以识别枢轴列。
- \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的行张成一个子空间 \(W \subseteq \mathbb{R}^n\),其维数为 \(\operatorname{dim}(W)=\operatorname{rk}(\boldsymbol{A})\)。通过应用高斯消元法到 \(\boldsymbol{A}^{\top}\) 可以找到 \(W\) 的一个基。
- 对于所有的 \(\boldsymbol{A} \in \mathbb{R}^{n \times n}\),如果且仅如果 \(\operatorname{rk}(\boldsymbol{A})=n\),\(\boldsymbol{A}\) 是正则的(可逆的)。
- 对于所有的 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 和所有的 \(\boldsymbol{b} \in \mathbb{R}^m\),线性方程组 \(\boldsymbol{A} \boldsymbol{x}=\boldsymbol{b}\) 可以求解当且仅当 \(\operatorname{rk}(\boldsymbol{A})=\operatorname{rk}(\boldsymbol{A} \mid \boldsymbol{b})\),其中 \(\boldsymbol{A} \mid \boldsymbol{b}\) 表示增广系统。
- 对于 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\),\(\boldsymbol{A x}=\mathbf{0}\) 的解空间具有维数 \(n-\operatorname{rk}(\boldsymbol{A})\)。稍后,我们将这个子空间称为核或零空间。
- 如果矩阵 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的秩等于相同维度矩阵的最大可能秩,则称其具有满秩。这意味着满秩矩阵的秩是行数和列数中的较小者,即 \(\operatorname{rk}(\boldsymbol{A})=\min (m, n)\)。如果矩阵没有满秩,则称其为秩亏损的。
例子2.18(秩)
- \(\boldsymbol{A}=\left[\begin{array}{lll}1 & 0 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0\end{array}\right]\)
矩阵 \(\boldsymbol{A}\) 有两行/列是线性无关的,因此 \(\operatorname{rk}(\boldsymbol{A})=2\)。
- \(\boldsymbol{A}=\left[\begin{array}{ccc}1 & 2 & 1 \\ -2 & -3 & 1 \\ 3 & 5 & 0\end{array}\right]\)。
我们使用高斯消元法来确定秩:
1 & 2 & 1 \\
-2 & -3 & 1 \\
3 & 5 & 0
\end{array}\right] \rightsquigarrow \cdots \rightsquigarrow\left[\begin{array}{ccc}
1 & 2 & 1 \\
0 & 1 & 3 \\
0 & 0 & 0
\end{array}\right] .
\]
在这里,我们看到线性无关的行和列的数量是 2,因此 \(\operatorname{rk}(\boldsymbol{A})=2\)。
阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis的更多相关文章
- How do I learn mathematics for machine learning?
https://www.quora.com/How-do-I-learn-mathematics-for-machine-learning How do I learn mathematics f ...
- 【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(1):二阶与三阶行列式、全排列及其逆序数
@ 目录 前言 二阶与三阶行列式 二阶行列式 三阶行列式 全排列及其逆序数 全排列 逆序数 结语 前言 Hello!小伙伴! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出- 自我介绍 ...
- 【机器学习Machine Learning】资料大全
昨天总结了深度学习的资料,今天把机器学习的资料也总结一下(友情提示:有些网站需要"科学上网"^_^) 推荐几本好书: 1.Pattern Recognition and Machi ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...
- 机器学习(Machine Learning)&深入学习(Deep Learning)资料
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林. ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料【转】
转自:机器学习(Machine Learning)&深度学习(Deep Learning)资料 <Brief History of Machine Learning> 介绍:这是一 ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料汇总 (上)
转载:http://dataunion.org/8463.html?utm_source=tuicool&utm_medium=referral <Brief History of Ma ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
机器学习(Machine Learning)&深度学习(Deep Learning)资料 機器學習.深度學習方面不錯的資料,轉載. 原作:https://github.com/ty4z2008 ...
- 机器学习(Machine Learning)与深度学习(Deep Learning)资料汇总
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...
- Multimodal Machine Learning:A Survey and Taxonomy 综述阅读笔记
该笔记基于:Multimodal Machine Learning:A Survey and Taxonomy 该论文是一篇对多模态机器学习领域的总结和分类,且发表于2017年,算是相当新的综述了.老 ...
随机推荐
- centos7系统的七个运行级别和设置默认运行级别
一.系统七个运行级别概述 0 系统停机模式,系统默认运行级别不能设置为0,否则不能正常启动,机器关的 1 单用户模式,root权限,用于系统维护,禁止远程登陆,就像Windows下的安全模式登录 2 ...
- MindSponge分子动力学模拟——体系控制(2024.05)
技术背景 在传统的分子动力学模拟软件中,对于分子体系的控制,例如控制体系的相对位置亦或是绝对位置,通常都是通过施加一些约束算法来实现的.例如用于限制化学键的LINCS算法,又比如水分子体系非常常用的S ...
- [SHOI2011]双倍回文 题解
[SHOI2011]双倍回文 题解 看了一些写回文自动机的大佬的代码,我深感敬畏,于是我转身向Manacher走去 现在荣登最优解第一页-- 说实话,这个方法的复杂度是很玄学的,但是加了一些优化之后, ...
- 写了一个 SRE 调试工具,类似一个小木马
远程操作机器有时会比较麻烦,我写了一个工具,主要功能:1.远程执行命令 2.上传下载文件.是一个 Web Server,通过 HTTP 请求来操作机器,类似一个小木马.当然,因为是一个 Web Ser ...
- mysql中常用的三种插入数据的语句
mysql中常用的三种插入数据的语句: insert into表示插入数据,数据库会检查主键(PrimaryKey),如果出现重复会报错: replace into表示插入替换数据,需求表中有Prim ...
- SQL索引优化,菜单列表优化
SQL索引优化,菜单列表优化 现象:在系统中几个数据量大的列表页面,首次进入页面未增加筛选条件,导致进入的列表查询速度非常慢.分析:通过SQL查看,是做了count求和查询,然后根据总的记录数来做分页 ...
- 利用.htaccess绑定子域名到子目录
Tips:当你看到这个提示的时候,说明当前的文章是由原emlog博客系统搬迁至此的,文章发布时间已过于久远,编排和内容不一定完整,还请谅解` 利用.htaccess绑定子域名到子目录 日期:2018- ...
- 算法金 | 一个强大的算法模型:t-SNE !!
大侠幸会,在下全网同名「算法金」 0 基础转 AI 上岸,多个算法赛 Top 「日更万日,让更多人享受智能乐趣」 t-SNE(t-Distributed Stochastic Neighbor Emb ...
- RSA非对称加密算法中的密钥对生成与传输
PrimiHub一款由密码学专家团队打造的开源隐私计算平台,专注于分享数据安全.密码学.联邦学习.同态加密等隐私计算领域的技术和内容. RSA(Rivest–Shamir–Adleman)加密算法是一 ...
- Cython编译报错“numpy/arrayobject.h: No such file or directory”解决方案
问题背景 Cython是用来加速Python程序性能的一个工具,其基本使用逻辑就是将类Python代码(*.pyx扩展格式)编译成\(*.c,*.so\)动态链接库文件,然后就可以在正常的Python ...