ICP——迭代最近点
ICP(iterative closest point)最广泛的应用应该就是点云的配准了。它的提出也是为了解决这个问题。
ICP(iterative closest point)最广泛的应用应该就是点云的配准了。它的提出也是为了解决这个问题。
RANSAC(RANdom SAmple Consensus),随机采样一致,是一个比较简单,但是在SLAM,图像陪准中用得很多的算法。当然,在这里我们专注于算法的本身,至于它在其他的地方的应用要结合具体情况分析。
这一节是信息论的最后一节(当然对于这门学科,这些东西只是冰山一角)。我们聊一聊信息论在压缩啊编码之外的一些作用。
上次介绍了特征,现在我们已经得到了特征匹配后的点对,现在我们需要用这些东西来估计相机运动。由于相机原理不同,估计的方法也不同。现在我们考虑的是单目相机,使用的方法为对极几何。
之前说到,我们直觉构造的1比特下高斯信源的传输与理论上的失真还有点差距,需要进行分组才能得到最优。下面,我们用失真联合典型序列来证明,同时证明率失真定理。 率失真定理的核心是我们要证明$R(D) = R^{(I)}(D)$。
之前我们研究的问题,冗余度压缩编码以及信道编码(增加信息冗余度,以对抗信道中的传输错误),目的都是对信息进行可靠无差错的传输,信息熵没有变化,也就是是保熵的。之后的内容,我们不再保证信息传输是无差错的。
在实际中,很多情况下我们是没有必要把信息的所有内容都保留下来的。比如看视频的时候,有高清标清的选择,对应于不同的网络情况。同样的还有图片的有损压缩等等。
之前的博客讲了reinforcement learning,但是上节课讲得更多的像是理论层面的东西,实际操作起来还是一脸懵逼。这次介绍一个非常有名的DQN(Deep Q-network),是神经网络和Q-learning结合起来的一个算法。并且在最后,我们会用它做一个有趣的事情。
到目前为止,我们都只算出来了信道容量,没有讲过怎么编码能得到这些容量。接下来要做的就是说明,所有上面算出来的容量,都是可以实现的。
上节课是数据学习的最后一个课程,做了一个简单的深度学习的介绍。
这周数据学习的内容是关于强化学习(Reinforcement Learning)的。不过课上睡着了,而且由于信息论时间太赶一直没有空看这节课的内容。
在很久之前学习概率论的时候呢,有这么一个比较奇怪的地方,方差的无偏估计:
$$
\sigma^2 = \frac{1}{n-1}\sum_{i=1}^n(X_i - \overline X)^2
$$
$\overline X = \frac 1 n X_i$,这里无偏估计是$\frac{1}{n-1}$总感觉有点反直觉。这篇文章就是想介绍一下无偏估计,以及这个$(n-1)$是从何而来的。
这一周的内容是关于EM算法的,同时介绍了EM算法在混合高斯模型(Mixture of Gaussians)上的情况以及在因子分析上的用途。
从现在开始下面两篇文章来介绍SLAM中的视觉里程计(Visual Odometry)。这个是我们正式进入SLAM工程的第一步,而之前介绍的更多的是一些基础理论。视觉里程计完成的事情是视觉里程计VO的目标是根据拍摄的图像估计相机的位姿。目前主要有两个方法,我们这一篇介绍的是特征点法。
上周讲的内容,和之前一样,从无到有推出来一堆东西。老师在白板上写Statistical Learning, Hypothesis Testing,当然是有关系的,但是这届课讲得内容应该只是上述二者的一小部分。比较神奇的是,最后竟然推到了VC Divergence。Amazing!
上节课除了说了softmax与HGR,还介绍了ACE算法的拓展:多变量下的ACE。
这周的数据学习课更不知道该起什么题目了。主要是加上一些假设,从Softmax函数开始推导,最后得到一个非常简单的形式,从而大大简化了算法。这次的derivation和上篇讲得东西还是有一些相关的。
这个博客介绍特征值分解(Eigen Value Decomposition,EVD)和奇异值分解(Singular Value Decomposition), 可以当作机器学习的补充材料。
这次来介绍信道以及信道的容量。
上一周的数据学习,没有课件,老师直接开始从头推了一些神奇的东西出来。所以我也很难给这篇的内容起一个题目,因为是从X与Y之间的信息推导到SVD的,因此就这么叫吧。