Total least squareRANSAC"/>
Total least squareRANSAC
弃我去者昨日之日不可留,昨天高级人工智能大作业答辩,强手如林,实在感觉自己如井底之蛙。 应该保持专注。
今天看了Udacity计算机视觉入门, 记一个笔记,关于Total least square, 相当于是least square的一种改进,因为least square有一个缺点,就是比如在直线拟合的时候,由于计算的是 y−ax−b ,相当于是竖直距离误差,这样的话,对于拟合直线的斜率太敏感了,而Total least square则采用了真正的垂直于直线的距离来度量误差,这样是符合gaussian noise的假设的。
讲Total least square是为了后面的RANSAC伏笔,关于RANSAC贴一张有关estimating homography的图就可以大概理解了:
但是有一个问题没搞懂,就是上图第三步的 ε 怎么取?前边有提到用一个noise model,但是noise model怎么会提前得到。然后就是,在计算N(N的含义就是满足至少有一次全部是inlier时random sample的次数,相当于上图第一步select的次数或者整个算法loop的次数)时要考虑每个点是inliner/outlier的概率,而这个概率怎么得知(课程没有明说),按理说这个概率和noise model是有关系的,但是,似乎课程用了别的方法来确定这个概率,见下图(但是必须承认的是,这个方法也很巧妙);
最后。Adaptive Prodedure的最后一番话解答了上面那个疑惑。如果我们真的有real noise model的话,那么可以根据noise model设定一个threshold来判断inlier/outliner,但是real noise model不常有,或者常不有。
Since RANSAC is used quite a bit, below are some examples:
视频中讲到了计算不同的变化所需要的matches的数目(不太明白):
- one matches for transition
- two for similarity
- three for affine transform
- four for homography
RANSAC for recognition
RANSAC for fundamental matrix(not understanded yet..)
RANSAC to find the table(plane)
更多推荐
Total least squareRANSAC
发布评论