Tracking————Compressed tracking压缩跟踪
压缩跟踪算法的核心主要是通过一个满足压缩感知约束条件的矩阵R把高维图像特征映射到低维, 并通过一个朴素贝叶斯分类器进行判别。作者的巧妙之处是找到了一个非常稀疏的这样一个矩阵R。
压缩跟踪算法的核心主要是通过一个满足压缩感知约束条件的矩阵R把高维图像特征映射到低维, 并通过一个朴素贝叶斯分类器进行判别。作者的巧妙之处是找到了一个非常稀疏的这样一个矩阵R。
通俗的来说,在tracking领域目前主要分为生成模型和判别模型两个分支,生成模型主要是如何描述目标,也可以理解为如何提取目标的特征来表达目标模型,如稀疏表达,增量PCA,sift特征等都是生成模型,这类分支在生成目标模型后对目标的跟踪是基于匹配思想的,和目标模型匹配度越高的则认为是当前帧的目标。
而判别模型则是传统的分类器思想,判断当前目标是(1)或不是(0)目标。目前很多先进的方法是把这两个分支的方法融合到一块。
DoG是LOG的近似,通过对不同尺度的高斯图像进行卷积后,把相连尺度图像相减,即可得到LOG的近似。但是在Sift算法中使用DOG来近似LOG,虽然多做了一次尺度的高斯卷积,用相减近似,但是仍旧比LOG节省很多计算资源。
贝叶斯分类是一系列分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。朴素贝叶斯算法(Naive Bayesian) 是其中应用最为广泛的分类算法之一。它是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。
自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值。换句话说,它尝试逼近一个恒等函数,从而使得输出y接近于输入x 。恒等函数虽然看上去不太有学习的意义,但是当我们为自编码神经网络加入某些限制,比如限定隐藏神经元的数量,我们就可以从输入数据中发现一些有趣的结构。自编码神经网络通常可以学习出一个跟主元分析(PCA)结果非常相似的输入数据的低维表示。
在说径向基网络之前,先聊下径向基函数(Radical Basis Function,RBF)。径向基函数(Radical Basis Function,RBF)方法是Powell在1985年提出的。所谓径向基函数,其实就是某种沿径向对称的标量函数。通常定义为空间中任一点x到某一中心c之间欧氏距离的单调函数,可记作k(||x-c||),其作用往往是局部的,即当x远离c时函数取值很小。