阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis
阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis
关于:
- 首次发表日期:2024-07-19
- Mathematics for Machine Learning官方链接: https://mml-book.com
- ChatGPT和KIMI机翻,人工润色
- 非数学专业,如有错误,请不吝指出
2.6.1 Basis and Rank (基与秩)
定义 2.13(生成集与张成)。考虑一个向量空间 \(V=(\mathcal{V}, +, \cdot)\) 和一组向量 \(\mathcal{A}=\left\{\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\right\} \subseteq \mathcal{V}\)。如果 \(\mathcal{V}\) 中的每一个向量 \(\boldsymbol{v}\) 都可以表示为 \(\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\) 的线性组合,则称 \(\mathcal{A}\) 为 \(V\) 的一个生成集。向量 \(\mathcal{A}\) 中所有向量的线性组合构成的集合称为 \(\mathcal{A}\) 的张成。如果 \(\mathcal{A}\) 张成了向量空间 \(V\),我们写作 \(V=\operatorname{span}[\mathcal{A}]\) 或 \(V=\operatorname{span}\left[\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\right]\)。
生成集是张成向量(子)空间的向量集合,即每一个向量都可以表示为生成集中向量的线性组合。现在,我们将更加具体地描述张成向量(子)空间的最小生成集。
定义 2.14(基)。考虑一个向量空间 \(V=(\mathcal{V}, +, \cdot)\) 和 \(\mathcal{A} \subseteq \mathcal{V}\)。如果不存在比 \(\mathcal{A}\) 更小的集合 \(\tilde{\mathcal{A}} \subsetneq \mathcal{A} \subseteq \mathcal{V}\) 能张成 \(V\),那么\(V\) 的生成集 \(\mathcal{A}\) 被称为最小生成集。\(V\) 的每一个线性无关的生成集都是最小的,并且被称为 \(V\) 的一个基。
设 \(V=(\mathcal{V},+, \cdot)\) 是一个向量空间,\(\mathcal{B} \subseteq \mathcal{V}, \mathcal{B} \neq \emptyset\)。那么,以下陈述是等价的:
- \(\mathcal{B}\) 是 \(V\) 的一个基。
- \(\mathcal{B}\) 是一个最小生成集。
- \(\mathcal{B}\) 是 \(V\) 中的最大线性无关向量集,即向这个集合中添加任何其他向量都会使其线性相关。
- 每一个向量 \(\boldsymbol{x} \in V\) 都是来自 \(\mathcal{B}\) 的向量的线性组合,并且每个线性组合都是唯一的,即:
\tag{2.77}
\]
且 \(\lambda_i, \psi_i \in \mathbb{R}, \boldsymbol{b}_i \in \mathcal{B}\),这意味着 \(\lambda_i=\psi_i, i=1, \ldots, k\)。
基是一个最小的生成集和一个最大的线性无关向量集合。
**例2.16**
- 在 \(\mathbb{R}^3\) 中,标准基是
1 \\
0 \\
0
\end{array}\right],\left[\begin{array}{l}
0 \\
1 \\
0
\end{array}\right],\left[\begin{array}{l}
0 \\
0 \\
1
\end{array}\right]\right\}
\]
- \(\mathbb{R}^3\) 中不同的基是
1 \\
0 \\
0
\end{array}\right],\left[\begin{array}{l}
1 \\
1 \\
0
\end{array}\right],\left[\begin{array}{l}
1 \\
1 \\
1
\end{array}\right]\right\}, \mathcal{B}_2=\left\{\left[\begin{array}{l}
0.5 \\
0.8 \\
0.4
\end{array}\right],\left[\begin{array}{l}
1.8 \\
0.3 \\
0.3
\end{array}\right],\left[\begin{array}{c}
-2.2 \\
-1.3 \\
3.5
\end{array}\right]\right\} .
\]
- 集合
1 \\
2 \\
3 \\
4
\end{array}\right],\left[\begin{array}{c}
2 \\
-1 \\
0 \\
2
\end{array}\right],\left[\begin{array}{c}
1 \\
1 \\
0 \\
-4
\end{array}\right]\right\}
\]
是线性无关的,但不是 \(\mathbb{R}^4\) 的生成集(也不是基):例如,向量 \([1,0,0,0]^{\top}\) 不能通过 \(\mathcal{A}\) 中元素的线性组合得到。
注释 每个向量空间 \(V\) 都有一个基 \(\mathcal{B}\)。前面的例子表明,一个向量空间 \(V\) 可以有许多不同的基,即没有唯一的基。然而,所有的基都具有相同数量的元素,即基向量。
我们只考虑有限维向量空间 \(V\)。在这种情况下,\(V\) 的维数是其基向量的数量,记作 \(\operatorname{dim}(V)\)。如果 \(U \subseteq V\) 是 \(V\) 的子空间,则 \(\operatorname{dim}(U) \leqslant \operatorname{dim}(V)\),且当且仅当 \(U=V\)时 \(\operatorname{dim}(U) = \operatorname{dim}(V)\) 。直观地说,向量空间的维数可以理解为这个空间中独立方向的数量。
注释 向量空间的维数不一定是向量中元素的数量。例如,向量空间 \(V=\operatorname{span}[\left[\begin{array}{l}0 \\ 1\end{array}\right]]\) 是一维的,尽管基向量具有两个元素。
向量空间的维数对应于其基向量的数量。
注释 子空间 \(U=\operatorname{span}\left[\boldsymbol{x}_1, \ldots, \boldsymbol{x}_m\right] \subseteq \mathbb{R}^n\) 的一个基可以通过以下步骤找到:
- 将张成向量写成矩阵 \(\boldsymbol{A}\) 的列。
- 求解矩阵 \(\boldsymbol{A}\) 的行阶梯形式。
- 与枢轴列相关联的张成向量构成 \(U\) 的一个基。
2.6.2 Rank(秩)
一个矩阵 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的线性无关列的数量等于线性无关行的数量,并且被称为 \(\boldsymbol{A}\) 的秩,表示为 \(\operatorname{rk}(\boldsymbol{A})\)。
注释。矩阵的秩具有一些重要性质:
- \(\operatorname{rk}(\boldsymbol{A})=\operatorname{rk}\left(\boldsymbol{A}^{\top}\right)\),即,列秩等于行秩。
- \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的列张成一个子空间 \(U \subseteq \mathbb{R}^m\),其维数为 \(\operatorname{dim}(U)=\operatorname{rk}(\boldsymbol{A})\)。稍后我们将这个子空间称为像或值域。通过应用高斯消元法到 \(\boldsymbol{A}\) 可以找到 \(U\) 的一个基,以识别枢轴列。
- \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的行张成一个子空间 \(W \subseteq \mathbb{R}^n\),其维数为 \(\operatorname{dim}(W)=\operatorname{rk}(\boldsymbol{A})\)。通过应用高斯消元法到 \(\boldsymbol{A}^{\top}\) 可以找到 \(W\) 的一个基。
- 对于所有的 \(\boldsymbol{A} \in \mathbb{R}^{n \times n}\),如果且仅如果 \(\operatorname{rk}(\boldsymbol{A})=n\),\(\boldsymbol{A}\) 是正则的(可逆的)。
- 对于所有的 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 和所有的 \(\boldsymbol{b} \in \mathbb{R}^m\),线性方程组 \(\boldsymbol{A} \boldsymbol{x}=\boldsymbol{b}\) 可以求解当且仅当 \(\operatorname{rk}(\boldsymbol{A})=\operatorname{rk}(\boldsymbol{A} \mid \boldsymbol{b})\),其中 \(\boldsymbol{A} \mid \boldsymbol{b}\) 表示增广系统。
- 对于 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\),\(\boldsymbol{A x}=\mathbf{0}\) 的解空间具有维数 \(n-\operatorname{rk}(\boldsymbol{A})\)。稍后,我们将这个子空间称为核或零空间。
- 如果矩阵 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的秩等于相同维度矩阵的最大可能秩,则称其具有满秩。这意味着满秩矩阵的秩是行数和列数中的较小者,即 \(\operatorname{rk}(\boldsymbol{A})=\min (m, n)\)。如果矩阵没有满秩,则称其为秩亏损的。
例子2.18(秩)
- \(\boldsymbol{A}=\left[\begin{array}{lll}1 & 0 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0\end{array}\right]\)
矩阵 \(\boldsymbol{A}\) 有两行/列是线性无关的,因此 \(\operatorname{rk}(\boldsymbol{A})=2\)。
- \(\boldsymbol{A}=\left[\begin{array}{ccc}1 & 2 & 1 \\ -2 & -3 & 1 \\ 3 & 5 & 0\end{array}\right]\)。
我们使用高斯消元法来确定秩:
1 & 2 & 1 \\
-2 & -3 & 1 \\
3 & 5 & 0
\end{array}\right] \rightsquigarrow \cdots \rightsquigarrow\left[\begin{array}{ccc}
1 & 2 & 1 \\
0 & 1 & 3 \\
0 & 0 & 0
\end{array}\right] .
\]
在这里,我们看到线性无关的行和列的数量是 2,因此 \(\operatorname{rk}(\boldsymbol{A})=2\)。
阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis的更多相关文章
- How do I learn mathematics for machine learning?
https://www.quora.com/How-do-I-learn-mathematics-for-machine-learning How do I learn mathematics f ...
- 【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(1):二阶与三阶行列式、全排列及其逆序数
@ 目录 前言 二阶与三阶行列式 二阶行列式 三阶行列式 全排列及其逆序数 全排列 逆序数 结语 前言 Hello!小伙伴! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出- 自我介绍 ...
- 【机器学习Machine Learning】资料大全
昨天总结了深度学习的资料,今天把机器学习的资料也总结一下(友情提示:有些网站需要"科学上网"^_^) 推荐几本好书: 1.Pattern Recognition and Machi ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...
- 机器学习(Machine Learning)&深入学习(Deep Learning)资料
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林. ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料【转】
转自:机器学习(Machine Learning)&深度学习(Deep Learning)资料 <Brief History of Machine Learning> 介绍:这是一 ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料汇总 (上)
转载:http://dataunion.org/8463.html?utm_source=tuicool&utm_medium=referral <Brief History of Ma ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
机器学习(Machine Learning)&深度学习(Deep Learning)资料 機器學習.深度學習方面不錯的資料,轉載. 原作:https://github.com/ty4z2008 ...
- 机器学习(Machine Learning)与深度学习(Deep Learning)资料汇总
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...
- Multimodal Machine Learning:A Survey and Taxonomy 综述阅读笔记
该笔记基于:Multimodal Machine Learning:A Survey and Taxonomy 该论文是一篇对多模态机器学习领域的总结和分类,且发表于2017年,算是相当新的综述了.老 ...
随机推荐
- Linux下tail -f,tail -F,tailf的区别
在Linux中,tail -f ,tail -F,tailf都是用来查看滚动日志的好方法,但是三者之间却有着细微的不同: tail -f 等同于--follow=descriptor,动态显示数据 ...
- 使用 TestContainers 进行数据库集成测试
在软件开发过程中,集成测试是至关重要的一环.它确保不同组件之间的协作正常,并验证系统在整体上的功能和性能.然而,传统的集成测试往往需要依赖于外部资源,如数据库.消息队列等,这给测试环境的搭建和维护带来 ...
- 如何查看Linux的系统信息?
在Linux服务器上,可以通过几个简单的命令来查看操作系统的详细信息. 1.使用uname命令获取操作系统基本信息,包括内核名称.网络节点名称.内核版本.架构等. uname -a 2.查看`/etc ...
- win10离线安装.net3.5失败的解决方案
简介: 问题:有时候需要离线安装.net3.5环境,网上的教程一般都是通过NetFx3.cab进行离线安装,但有时候会出现离线安装失败,比如: by~MaQaQ 2024-06-04 分析: 1.先关 ...
- k8s——核心概念篇
服务的分类 有状态 代表应用 nginx apache 优点 对客户端透明,无依赖关系,可以高效实现扩容,迁移 缺点 不能存储数据,需要额外的数据服务支撑 无状态 代表应用 MYSQL Redis 优 ...
- ts的keyof
keyof 是 TypeScript 中的一种类型操作符,用于获取一个类型的所有键(属性名)作为联合类型.它的语法如下: type KeysOfType = keyof ObjectType; 其中: ...
- jquery的class操作 css样式操作
<button>切换</button> <div class="div1">123</div> <sc ...
- DS Record
八云蓝自动机 Ⅰ 首先我们对于操作 \(1\) 转换,我们给 \(k\) 单独再开一个点 \(a_c\),这样我们就可以把操作 \(1\) 转换成操作 \(2\) 了. 对于区间问题,我们考虑使用莫队 ...
- 《Android开发卷——实时监听文本框输入》
在实际开发中,有时候会让用户发布一些类似微博.说说的东西,但是这个是有限制长度的,除了在文本输入框限制长度外,还要在旁边有一条提示还能输入多少个字的"友好提示". 1.文本框 ...
- element-ui 合并行或列 table :span-method(行合并)
element-ui 官网案例:table合并行或列 element-ui官网中关于行合并的例子是根据行号进行合并的,这显然不符合我们日常开发需求,因为通常我们table中的数据都是动态生成的,所以需 ...