TLD

  1. TLD的matlab版本是作者的原始版本,而C++版本跟踪效果很差,非常差,粗略估计可能是因为c版本中生成正样本训练数据没有把图像patch进行仿射变换,而是直接输入了200个一模一样的正样本。
  2. TLD中分为4大模块,检测模块,跟踪模块,综合模块和学习模块。检测模块利用训练的分类器得到检测结果,而跟踪模块则是利用传统的LK光流法进行跟踪

    Read More

Tracking的两大类别

通俗的来说,在tracking领域目前主要分为生成模型和判别模型两个分支,生成模型主要是如何描述目标,也可以理解为如何提取目标的特征来表达目标模型,如稀疏表达,增量PCA,sift特征等都是生成模型,这类分支在生成目标模型后对目标的跟踪是基于匹配思想的,和目标模型匹配度越高的则认为是当前帧的目标。
而判别模型则是传统的分类器思想,判断当前目标是(1)或不是(0)目标。目前很多先进的方法是把这两个分支的方法融合到一块。

Read More

朴素贝叶斯分类器

贝叶斯分类是一系列分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类。朴素贝叶斯算法(Naive Bayesian) 是其中应用最为广泛的分类算法之一。它是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。

Read More

Dropout的理解:

  1. 在训练过程中,随机的使一些神经元输出为0,使其失效,这样有可能可以获得更多的特征表达,每一个神经元不完全依赖于其他的神经元,但是我们还是保留这个权重;
  2. 从数学平均的角度来理解的话,每一个batchsize的训练,都有不同的激活的神经元来组成网络,每一次迭代的网络都不相同,但是他们是使用了同一个权重。最终结果可以理解为,不同的神经网络做了平均。

    Read More

SAE稀疏自动编码器

自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值。换句话说,它尝试逼近一个恒等函数,从而使得输出y接近于输入x 。恒等函数虽然看上去不太有学习的意义,但是当我们为自编码神经网络加入某些限制,比如限定隐藏神经元的数量,我们就可以从输入数据中发现一些有趣的结构。自编码神经网络通常可以学习出一个跟主元分析(PCA)结果非常相似的输入数据的低维表示。

Read More

PCA降维(信号处理领域也叫KLT变换)

PCA 与 Linear Regression 的区别:

  1. PCA衡量的是orthogonal distance, 而linear regression是所有x点对应的真实值y=g(x)与估计值f(x)之间的vertical distance距离
  2. more general 的解释:PCA中为的是寻找一个surface,将各feature{x1,x2,…,xn}投影到这个surface后使得各点间variance最大(跟y没有关系,是寻找最能够表现这些feature的一个平面);而Linear Regression是给出{x1,x2,…,xn},希望根据x去预测y,所以进行回归。

    Read More

网络模型训练阶段对于欠拟合和过拟合的关系?

  1. 任何一个最小二乘均方差cost function都可以表示为bias方和variance和一个噪声的叠加,其中bias值得是最终数据集的预测结果均值和期望结果的偏差,而variance指的是最终所有样本的预测结果,这些结果的方差。我们训练最终需要的效果是尽可能的使bias和variance都很小。

    Read More

径向基函数

在说径向基网络之前,先聊下径向基函数(Radical Basis Function,RBF)。径向基函数(Radical Basis Function,RBF)方法是Powell在1985年提出的。所谓径向基函数,其实就是某种沿径向对称的标量函数。通常定义为空间中任一点x到某一中心c之间欧氏距离的单调函数,可记作k(||x-c||),其作用往往是局部的,即当x远离c时函数取值很小。

Read More