Derivatives of a B-spline Curve 本博客转自前人的博客的翻译版本,前几章节是原来博主的翻译内容,但是后续章节博主不在提供翻译,后续章节我在完成相关的翻译学习. (原来博客网址:http://blog.csdn.net/tuqu/article/details/4749586) 原来的博主翻译还是很好的,所以前几章节直接借鉴参考原博主的内容. 尽管B-样条曲线比贝塞尔曲线复杂得多,它们的导数很相似.假设一个B-样条曲线定义如下: 每个基函数的导数可计算如下: 将这些导…
B-spline Curves: Important Properties 本博客转自前人的博客的翻译版本,前几章节是原来博主的翻译内容,但是后续章节博主不在提供翻译,后续章节我在完成相关的翻译学习. (原来博客网址:http://blog.csdn.net/tuqu/article/details/4749586) 原来的博主翻译还是很好的,所以前几章节直接借鉴参考原博主的内容. B-样条曲线有很多与贝塞尔曲线一样的重要性质,因为前者是后者的推广.而且,B-样条曲线有比贝塞尔曲线更渴望的性质.…
B-spline Curves: Moving Control Points 本博客转自前人的博客的翻译版本,前几章节是原来博主的翻译内容,但是后续章节博主不在提供翻译,后续章节我在完成相关的翻译学习. (原来博客网址:http://blog.csdn.net/tuqu/article/details/4749586) 原来的博主翻译还是很好的,所以前几章节直接借鉴参考原博主的内容. B-样条曲线:移动控制点 移动控制点是改变B-样条曲线形状的最明显的方法.在前面页讨论的局部修改方案说明了修改控…
B-spline Curves: Computing the Coefficients 本博客转自前人的博客的翻译版本,前几章节是原来博主的翻译内容,但是后续章节博主不在提供翻译,后续章节我在完成相关的翻译学习. (原来博客网址:http://blog.csdn.net/tuqu/article/details/4749586) 原来的博主翻译还是很好的,所以前几章节直接借鉴参考原博主的内容. 尽管de Boor算法是一个计算对应于给定u的B-样条曲线上的点的标准方法, 我们许多情况下(例如,曲…
B-spline Curves: Definition 本博客转自前人的博客的翻译版本,前几章节是原来博主的翻译内容,但是后续章节博主不在提供翻译,后续章节我在完成相关的翻译学习. (原来博客网址:http://blog.csdn.net/tuqu/article/details/4749586) 原来的博主翻译还是很好的,所以前几章节直接借鉴参考原博主的内容. 给定 n + 1个控制点P0, P1, ..., Pn 和一个节点向量U = { u0, u1, ..., um },  p 次B-样…
B-spline Curves 学习之前言 本博客转自前人的博客的翻译版本,前几章节是原来博主的翻译内容,但是后续章节博主不在提供翻译,后续章节我在完成相关的翻译学习. (原来博客网址:http://blog.csdn.net/tuqu/article/details/4749586) 原来的博主翻译还是很好的,所以前几章节直接借鉴参考原博主的内容. B-spline Curves Notes 本 教程是关于B-样条曲线(B-spline Curves)的教程.B-样条曲线在计算机视觉(comp…
B-spline Basis Functions 本博客转自前人的博客的翻译版本,前几章节是原来博主的翻译内容,但是后续章节博主不在提供翻译,后续章节我在完成相关的翻译学习. (原来博客网址:http://blog.csdn.net/tuqu/article/details/4749586) 原来的博主翻译还是很好的,所以前几章节直接借鉴参考原博主的内容. B-spline Basis Functions:Definition 贝塞尔基函数用作权重.B-样条基函数也一样:但更复杂.但是它有两条贝…
B-spline Basis Functions: Computation Examples 本博客转自前人的博客的翻译版本,前几章节是原来博主的翻译内容,但是后续章节博主不在提供翻译,后续章节我在完成相关的翻译学习. (原来博客网址:http://blog.csdn.net/tuqu/article/details/4749586) 原来的博主翻译还是很好的,所以前几章节直接借鉴参考原博主的内容. 1. 简单节点(Simple Knots ) 假设节点向量是U = { 0, 0.25, 0.5…
导数使用T.grad计算. 这里使用pp()打印梯度的符号表达式. 第3行输出是打印了经过优化器简化的符号梯度表达式,与第1个输出相比确实简单多了. fill((x** TensorConstant{2}), TensorConstant{1.0})指创建一个x**2大小的矩阵,并填充1. importtheano.tensor as T fromtheano import pp fromtheano import function x= T.dscalar('x') y= x ** 2 gy=…
一.引言(Introduction) 1.1 欢迎 1.2 机器学习是什么? 1.3 监督学习 1.4 无监督学习 二.单变量线性回归(Linear Regression with One Variable) 2.1 模型表示 2.2 代价函数 2.3 代价函数的直观理解I 2.4 代价函数的直观理解II 2.5 梯度下降 2.6 梯度下降的直观理解 2.7 梯度下降的线性回归 2.8 接下来的内容 三.线性代数回顾(Linear Algebra Review) 3.1 矩阵和向量 3.2 加法…