阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis
阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis
关于:
- 首次发表日期:2024-07-19
- Mathematics for Machine Learning官方链接: https://mml-book.com
- ChatGPT和KIMI机翻,人工润色
- 非数学专业,如有错误,请不吝指出
2.6.1 Basis and Rank (基与秩)
定义 2.13(生成集与张成)。考虑一个向量空间 \(V=(\mathcal{V}, +, \cdot)\) 和一组向量 \(\mathcal{A}=\left\{\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\right\} \subseteq \mathcal{V}\)。如果 \(\mathcal{V}\) 中的每一个向量 \(\boldsymbol{v}\) 都可以表示为 \(\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\) 的线性组合,则称 \(\mathcal{A}\) 为 \(V\) 的一个生成集。向量 \(\mathcal{A}\) 中所有向量的线性组合构成的集合称为 \(\mathcal{A}\) 的张成。如果 \(\mathcal{A}\) 张成了向量空间 \(V\),我们写作 \(V=\operatorname{span}[\mathcal{A}]\) 或 \(V=\operatorname{span}\left[\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\right]\)。
生成集是张成向量(子)空间的向量集合,即每一个向量都可以表示为生成集中向量的线性组合。现在,我们将更加具体地描述张成向量(子)空间的最小生成集。
定义 2.14(基)。考虑一个向量空间 \(V=(\mathcal{V}, +, \cdot)\) 和 \(\mathcal{A} \subseteq \mathcal{V}\)。如果不存在比 \(\mathcal{A}\) 更小的集合 \(\tilde{\mathcal{A}} \subsetneq \mathcal{A} \subseteq \mathcal{V}\) 能张成 \(V\),那么\(V\) 的生成集 \(\mathcal{A}\) 被称为最小生成集。\(V\) 的每一个线性无关的生成集都是最小的,并且被称为 \(V\) 的一个基。
设 \(V=(\mathcal{V},+, \cdot)\) 是一个向量空间,\(\mathcal{B} \subseteq \mathcal{V}, \mathcal{B} \neq \emptyset\)。那么,以下陈述是等价的:
- \(\mathcal{B}\) 是 \(V\) 的一个基。
- \(\mathcal{B}\) 是一个最小生成集。
- \(\mathcal{B}\) 是 \(V\) 中的最大线性无关向量集,即向这个集合中添加任何其他向量都会使其线性相关。
- 每一个向量 \(\boldsymbol{x} \in V\) 都是来自 \(\mathcal{B}\) 的向量的线性组合,并且每个线性组合都是唯一的,即:
\tag{2.77}
\]
且 \(\lambda_i, \psi_i \in \mathbb{R}, \boldsymbol{b}_i \in \mathcal{B}\),这意味着 \(\lambda_i=\psi_i, i=1, \ldots, k\)。
基是一个最小的生成集和一个最大的线性无关向量集合。
**例2.16**
- 在 \(\mathbb{R}^3\) 中,标准基是
1 \\
0 \\
0
\end{array}\right],\left[\begin{array}{l}
0 \\
1 \\
0
\end{array}\right],\left[\begin{array}{l}
0 \\
0 \\
1
\end{array}\right]\right\}
\]
- \(\mathbb{R}^3\) 中不同的基是
1 \\
0 \\
0
\end{array}\right],\left[\begin{array}{l}
1 \\
1 \\
0
\end{array}\right],\left[\begin{array}{l}
1 \\
1 \\
1
\end{array}\right]\right\}, \mathcal{B}_2=\left\{\left[\begin{array}{l}
0.5 \\
0.8 \\
0.4
\end{array}\right],\left[\begin{array}{l}
1.8 \\
0.3 \\
0.3
\end{array}\right],\left[\begin{array}{c}
-2.2 \\
-1.3 \\
3.5
\end{array}\right]\right\} .
\]
- 集合
1 \\
2 \\
3 \\
4
\end{array}\right],\left[\begin{array}{c}
2 \\
-1 \\
0 \\
2
\end{array}\right],\left[\begin{array}{c}
1 \\
1 \\
0 \\
-4
\end{array}\right]\right\}
\]
是线性无关的,但不是 \(\mathbb{R}^4\) 的生成集(也不是基):例如,向量 \([1,0,0,0]^{\top}\) 不能通过 \(\mathcal{A}\) 中元素的线性组合得到。
注释 每个向量空间 \(V\) 都有一个基 \(\mathcal{B}\)。前面的例子表明,一个向量空间 \(V\) 可以有许多不同的基,即没有唯一的基。然而,所有的基都具有相同数量的元素,即基向量。
我们只考虑有限维向量空间 \(V\)。在这种情况下,\(V\) 的维数是其基向量的数量,记作 \(\operatorname{dim}(V)\)。如果 \(U \subseteq V\) 是 \(V\) 的子空间,则 \(\operatorname{dim}(U) \leqslant \operatorname{dim}(V)\),且当且仅当 \(U=V\)时 \(\operatorname{dim}(U) = \operatorname{dim}(V)\) 。直观地说,向量空间的维数可以理解为这个空间中独立方向的数量。
注释 向量空间的维数不一定是向量中元素的数量。例如,向量空间 \(V=\operatorname{span}[\left[\begin{array}{l}0 \\ 1\end{array}\right]]\) 是一维的,尽管基向量具有两个元素。
向量空间的维数对应于其基向量的数量。
注释 子空间 \(U=\operatorname{span}\left[\boldsymbol{x}_1, \ldots, \boldsymbol{x}_m\right] \subseteq \mathbb{R}^n\) 的一个基可以通过以下步骤找到:
- 将张成向量写成矩阵 \(\boldsymbol{A}\) 的列。
- 求解矩阵 \(\boldsymbol{A}\) 的行阶梯形式。
- 与枢轴列相关联的张成向量构成 \(U\) 的一个基。
2.6.2 Rank(秩)
一个矩阵 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的线性无关列的数量等于线性无关行的数量,并且被称为 \(\boldsymbol{A}\) 的秩,表示为 \(\operatorname{rk}(\boldsymbol{A})\)。
注释。矩阵的秩具有一些重要性质:
- \(\operatorname{rk}(\boldsymbol{A})=\operatorname{rk}\left(\boldsymbol{A}^{\top}\right)\),即,列秩等于行秩。
- \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的列张成一个子空间 \(U \subseteq \mathbb{R}^m\),其维数为 \(\operatorname{dim}(U)=\operatorname{rk}(\boldsymbol{A})\)。稍后我们将这个子空间称为像或值域。通过应用高斯消元法到 \(\boldsymbol{A}\) 可以找到 \(U\) 的一个基,以识别枢轴列。
- \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的行张成一个子空间 \(W \subseteq \mathbb{R}^n\),其维数为 \(\operatorname{dim}(W)=\operatorname{rk}(\boldsymbol{A})\)。通过应用高斯消元法到 \(\boldsymbol{A}^{\top}\) 可以找到 \(W\) 的一个基。
- 对于所有的 \(\boldsymbol{A} \in \mathbb{R}^{n \times n}\),如果且仅如果 \(\operatorname{rk}(\boldsymbol{A})=n\),\(\boldsymbol{A}\) 是正则的(可逆的)。
- 对于所有的 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 和所有的 \(\boldsymbol{b} \in \mathbb{R}^m\),线性方程组 \(\boldsymbol{A} \boldsymbol{x}=\boldsymbol{b}\) 可以求解当且仅当 \(\operatorname{rk}(\boldsymbol{A})=\operatorname{rk}(\boldsymbol{A} \mid \boldsymbol{b})\),其中 \(\boldsymbol{A} \mid \boldsymbol{b}\) 表示增广系统。
- 对于 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\),\(\boldsymbol{A x}=\mathbf{0}\) 的解空间具有维数 \(n-\operatorname{rk}(\boldsymbol{A})\)。稍后,我们将这个子空间称为核或零空间。
- 如果矩阵 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的秩等于相同维度矩阵的最大可能秩,则称其具有满秩。这意味着满秩矩阵的秩是行数和列数中的较小者,即 \(\operatorname{rk}(\boldsymbol{A})=\min (m, n)\)。如果矩阵没有满秩,则称其为秩亏损的。
例子2.18(秩)
- \(\boldsymbol{A}=\left[\begin{array}{lll}1 & 0 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0\end{array}\right]\)
矩阵 \(\boldsymbol{A}\) 有两行/列是线性无关的,因此 \(\operatorname{rk}(\boldsymbol{A})=2\)。
- \(\boldsymbol{A}=\left[\begin{array}{ccc}1 & 2 & 1 \\ -2 & -3 & 1 \\ 3 & 5 & 0\end{array}\right]\)。
我们使用高斯消元法来确定秩:
1 & 2 & 1 \\
-2 & -3 & 1 \\
3 & 5 & 0
\end{array}\right] \rightsquigarrow \cdots \rightsquigarrow\left[\begin{array}{ccc}
1 & 2 & 1 \\
0 & 1 & 3 \\
0 & 0 & 0
\end{array}\right] .
\]
在这里,我们看到线性无关的行和列的数量是 2,因此 \(\operatorname{rk}(\boldsymbol{A})=2\)。
阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis的更多相关文章
- How do I learn mathematics for machine learning?
https://www.quora.com/How-do-I-learn-mathematics-for-machine-learning How do I learn mathematics f ...
- 【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(1):二阶与三阶行列式、全排列及其逆序数
@ 目录 前言 二阶与三阶行列式 二阶行列式 三阶行列式 全排列及其逆序数 全排列 逆序数 结语 前言 Hello!小伙伴! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出- 自我介绍 ...
- 【机器学习Machine Learning】资料大全
昨天总结了深度学习的资料,今天把机器学习的资料也总结一下(友情提示:有些网站需要"科学上网"^_^) 推荐几本好书: 1.Pattern Recognition and Machi ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...
- 机器学习(Machine Learning)&深入学习(Deep Learning)资料
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林. ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料【转】
转自:机器学习(Machine Learning)&深度学习(Deep Learning)资料 <Brief History of Machine Learning> 介绍:这是一 ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料汇总 (上)
转载:http://dataunion.org/8463.html?utm_source=tuicool&utm_medium=referral <Brief History of Ma ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
机器学习(Machine Learning)&深度学习(Deep Learning)资料 機器學習.深度學習方面不錯的資料,轉載. 原作:https://github.com/ty4z2008 ...
- 机器学习(Machine Learning)与深度学习(Deep Learning)资料汇总
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...
- Multimodal Machine Learning:A Survey and Taxonomy 综述阅读笔记
该笔记基于:Multimodal Machine Learning:A Survey and Taxonomy 该论文是一篇对多模态机器学习领域的总结和分类,且发表于2017年,算是相当新的综述了.老 ...
随机推荐
- Sass预处理器 常见函数的基本使用
Sass提供了许多内置模块,其中包含有用的函数(以及mixin).这些模块可以像任何用户定义的样式表一样使用@use规则加载,它们的函数可以像任何其他模块成员一样调用.所有内置模块URL都以sass开 ...
- centos7系统的七个运行级别和设置默认运行级别
一.系统七个运行级别概述 0 系统停机模式,系统默认运行级别不能设置为0,否则不能正常启动,机器关的 1 单用户模式,root权限,用于系统维护,禁止远程登陆,就像Windows下的安全模式登录 2 ...
- 【前端】css js 全屏 esc退出全屏 滚动条隐藏 兼容火狐,文字超出容器长度省略号显示
全屏 if (docElm.requestFullscreen) { docElm.requestFullscreen(); } else if (docElm.msRequestFullscreen ...
- sqlServer 重复数据项处理,只选其中一条,保留一条
select * from table where id in (select max(id) from table group by [去除重复的字段名列表,....]) --删除 from tab ...
- RBD与Cephfs
目录 1. RBD 1. RBD特性 2. 创建rbd池并使用 2.1 创建rbd 2.2 创建用户 2.3 下发用户key与ceph.conf 2.4 客户端查看pool 2.5 创建rbd块 2. ...
- tcc-transaction源码详解
更多优秀博文,请关注博主的个人博客:听到微笑的博客 本文主要介绍TCC的原理,以及从代码的角度上分析如何实现的:不涉及具体使用示例.本文通过分析tcc-transaction源码带大家了解TCC分布式 ...
- Java类加载过程&&静态代码块的初始化过程
问题的引入 还是老规矩,先说说自己遇到的问题. 最近看到了一个比较有意思的Java程序,初次看到这段程序执行的结果还是挺让我意外的,话不多说先上程序,大家也可以揣摩一下(大神自行略过......) c ...
- k8s——集群环境问题合集
创建集群 k8s集群创建 集群环境问题合集 重置master节点 kubeadm reset -f # -f 强制重置 可选 重置node节点 # 当你的master节点重置后,node节点需要重新加 ...
- 国产大模型参加高考,同写2024年高考作文,及格分(通义千问、Kimi、智谱清言、Gemini Advanced、Claude-3-Sonnet、GPT-4o)
大家好,我是章北海 今天高考,上午的语文结束,市面上又要来一场大模型参考的文章了. 我也凑凑热闹,让通义千问.Kimi.智谱清言一起来写一下高考作文. 公平起见,不加任何其他prompt,直接把题目甩 ...
- MFC 好像不太智能
我的想法就是这个MFC可能十靠鼠标和点击啥的偏主力 自己配消息处理函数容易出错,一旦代码坏了,不可逆向寻找失去的代码 多以能用鼠标设计的尽量用用编译器提供的界面去设计 当然啊这个API还是要自己找 这 ...