以下图片就来自于高翔博士《视觉SLAM十四讲》 我看到这里的时候对于(7.2)没有看懂,因为直觉上跟(7.1)完全不等,因此我自己推导了以下,发现也可以推导出之后的对级约束(7.7)。具体推导如下:
s 1 p 1 = K P , s 2 p 2 = K ( R P + t ) s_1p_1 = KP, s_2p_2 = K(RP+t) s1p1=KP,s2p2=K(RP+t) 注意这里的R和t实际上可以写为 R 21 R_{21} R21和 t 21 t_{21} t21,接下来将上述两公示变形: s 1 K − 1 p 1 = P , s 2 K − 1 p 2 = R P + t s_1K^{-1}p_1 = P, s_2K^{-1}p_2=RP+t s1K−1p1=P,s2K−1p2=RP+t 令: x 1 = K − 1 p 1 , x 2 = K − 1 p 2 x_1 = K^{-1}p_1, x_2=K^{-1}p_2 x1=K−1p1,x2=K−1p2,那么上式可写为: s 1 x 1 = P , s 2 x 2 = R P + t s_1x_1 = P, s_2x_2=RP+t s1x1=P,s2x2=RP+t于是有: s 2 x 2 = R ( s 1 x 1 ) + t = s 1 R x 1 + t s_2x_2 = R(s_1x_1)+t = s_1Rx_1+t s2x2=R(s1x1)+t=s1Rx1+t 接下来两边分别左乘 t ^ \hat{t} t^可以得到: s 2 t ^ x 2 = s 1 t ^ R x 1 + t ^ t = s 1 t ^ R x 1 s_2\hat{t}x_2 = s_1\hat{t}Rx_1+\hat{t}t = s_1\hat{t}Rx_1 s2t^x2=s1t^Rx1+t^t=s1t^Rx1 因为 t ^ t \hat{t}t t^t类似于差积,因此等于0: s 2 t ^ x 2 = s 1 t ^ R x 1 s_2\hat{t}x_2 = s_1\hat{t}Rx_1 s2t^x2=s1t^Rx1 两边分别左乘 x 2 T x_2^T x2T,可以得到 s 2 x 2 T t ^ x 2 = s 1 x 2 T t ^ R x 1 s_2x_2^T\hat{t}x_2 = s_1x_2^T\hat{t}Rx_1 s2x2Tt^x2=s1x2Tt^Rx1 因为左侧等于0,因此右侧也等于0, s 1 s_1 s1是一个标量,因此: x 2 T t ^ R x 1 = 0 x_2^T\hat{t}Rx_1 = 0 x2Tt^Rx1=0 这里的 E = t ^ R E = \hat{t}R E=t^R被称为本质矩阵(Essential Matrix)