课程大纲:http://vision.stanford.edu/teaching/cs131_fall1718/syllabus.html 课程定位: 课程交叉: what is (computer) vision?: 1. a scientific field that extracts information out of digital images. 2. building algorithms that can be understand the contnent of image a…
大纲 what is color? The result of interaction between physical light in the environment and our visual system. A psychological property of our visual experiences when we look at objects and lights, not a physical property of those objects or lights. Hu…
Background reading: Forsyth and Ponce, Computer Vision Chapter 7 Image sampling and quantization Types of images: binary, gray scale, color Resolution: DPI: dots per inch, spatial pixel density Image histograms: histogram of an image provides the fre…
深度学习 So far this week Edge detection RANSAC SIFT K-Means Linear classifier Mean-shift PCA/Eigenfaces Image features Current Research Learning hierarchical representations from data End-to-end learning: raw inputs to predictions can use a small set of…
向量和矩阵 什么是矩阵/向量? Vectors and matrix are just collections of ordered numbers that represent something: movements in space, scaling factors, pixel brightness, etc. We'll define some common uses and standard operations on them. 向量:列向量/行向量 用处: Vectos can…
实在是太喜欢Richard Szeliski的这本书了.每一章节(after chapter3)都详述了该研究方向比較新的成果.还有很多很多的reference,假设你感兴趣.全然能够看那些參考论文 Point operators(点算子) 点运算是最简单的一类图像处理运算.如简单的对照度变换,亮度变换 Pixel transform(像素变换) g(x) = af (x) +b    a和b有时被觉得用来控制对照度和亮度,在我的opencv栏目有个样例是简单的对照度和亮度变换,用的就是这个公式…
SIFT尺度不变特征 D. Lowe. Distinctive image features from scale-invariant key points, IJCV 2004 -Lecture 05 - Scale-invariant Feature Transform (SIFT) - https://www.youtube.com/watch?v=NPcMS49V5hg 本文是上面UCF-CRCV课程视频的学习笔记. DOG(Difference of Gaussian)角点 / Har…
在更详细的学习HTTPS之前,我也觉得很有必要学习下HTTPS经常用到的加密编码技术的背景知识.密码学是对报文进行编解码的机制和技巧.可以用来加密数据,比如数据加密常用的AES/ECB/PKCS5Padding加密,也可以用来防止报文的篡改,使用RSA2048withSHA256签名验证,使用MD5签名等.如果这些不清楚,即使学习简单能做一个HTTPS的服务器和客户端,实际项目上遇见这类问题还是束手无策,下面介绍下数字加密的一些常用的术语. 一.密码学基础概念 1.密码 : 对文本进行编码,使偷…
BERT 课程笔记 1. 传统方案遇到的问题 BERT的核心在于Transformer,Transformer就类似seq2seq网络输入输出之间的网络结构. 传统的RNN网络:最大的问题,因为不能并行计算,所以往往深度不够. 传统的word2vec:同一个词一经训练词向量便确定了下来,缺乏适应不同语境的灵活性. 2. 注意力机制的作用 注意力机制的作用是能够体现句子中的重点词,而不是把所有词都同等看待.类似图右体现的关注热点区域. self-attention举例:两个句子中it的指代是不同的…
学习Solr前需要有Lucene的基础 Lucene的一些简单用法:https://www.cnblogs.com/dddyyy/p/9842760.html 1.部署Solr到Tomcat(Windows) Solr自带小型服务器jetty,但在我们开发环境中,习惯使用Tomcat,所以把Solr部署到Tomcat上(Tomcat 8.0以上,jdk 1.8以上) 其实步骤相同,但在windows配置要方便一些,所以第一次还是使用Windows来部署. 1.1 准备工作 Solr下载地址:ht…