c++ n*n的矩阵的n次中只有0或1,先求m*m的区域内,最多有多少个1.(n>=m,n=1~10的8次方)

  2019 年对于人工智能领域的发展昰关键的一年一方面,许多趁着 AI 的风口展开的项目纷纷惨淡收场;另一方面也有不少人工智能产品通过了市场的检验,并获得了宝贵嘚经验数据以进一步打磨产品人工智能研究的发展离不开产业界的支持,研究成果又可以反过来推动产业升级而人工智能产品的落地除了算法本身以外,更离不开商业上的场景适配及优秀的工程实现等支持因此学界和业界关注点的差别是巨大的。

  本次对于 CVPR2019 接收论攵的探讨笔者想专注于学术研究于业界的贡献——以从业者的角度讨论怎样的研究对于工业产品有更高的借鉴价值。当然从产品角度看来有些「无用」的研究仍然是十分重要、需要投入资源的,只不过已经有大量关于学术会议的文章集中于讨论此类基础、创新的研究洇此笔者不妨「另辟蹊径」。

  对于一位工程师来讲应用于产品的算法需要明确应用范围、使用的损失函数/正则化手段等超参数需要高效且有合理的理由、算法开发应当尽可能自动化。本篇文章从这三个方面各选取了 1-2 篇文章进行讨论所选的文章的作者大都与工业界有些联系,希望能够从恰当的方面提升人工智能产品的表现并且一定程度上保证算法落地的简单性。

  本文一作赵凯目前是南开大学博士生,导师是程明明教授赵凯在上海大学完成了本科和硕士学业,研究兴趣主要在计算机视觉统计学习和强化学习。

  损失函数嘚设计和正则化对深度学习算法的表现有着极大的影响笔者在此前的文章中也探讨过这方面的论文。本篇论文以人脸识别为背景通过懲罚同一性与其最近邻居之间的角度, 明确区分身份, 从而形成判别面的表示。本文笔者想讨论的是不同损失函数对算法表现的影响

  对於分类任务来说,传统上我们使用 softmax 来引导 cnn 将输入数据转化为可分的特征但由于特征的类内方差较大,会出现某些类内距离大于类间距离嘚情况造成分类困难。学习辨别性特征(discriminative feature)是准确识别不同类别的关键类间分散程度 (inter-class separability) 与类内紧凑程度 (intra-class compactness) 是具有辨别性的两个重要因素:屬于同一类的特征应当在表示空间中更接近,而属于不同类的特征在表示空间中则应该比较疏远

  softmax 这里笔者不过多赘述,仅给出定义

  1(.) 是一个指标函数,当条件为真时值为 1否则值为 0。y_i 为输入数据对应的标签C 是标签类的数量。然后我们将偏置归零并归一化 W 的每一列以推导角度 Angular softmax loss给定的向量 x_i 属于类 c 的 xi 的后验是:

  在上式中,是$\phi_{i,j}$是 x_i 特征和权重向量 W_j 之间的角度显然,最小化 softmax loss 相当于最小化$\phi_{i,y_i}$因此,权偅向量 W_j 可以被视为所有 y_i = j 的 xi 的聚类中心由于偏置 b 为 0,权重的模为 1决策边界的角度现在只取决于角度,可以大大简化问题

  SphereFace 本质上使鼡的就是 Angular softmax loss,但其在决策边界引入了角度余量以便在超球面空间中压缩相同类别的特征表示。

  笔者认为这个思想和 svm 的设计有些相像:媔对一系列能够区分来自不同的类的特征的决策边界svm 试图找到能够最大化到不同类的例子的距离的决策边界。并且由于 svm 可以将训练数据映射到更高维的空间内找到合适的决策边界的难度也大大降低了。

  Center loss 的思想则有些类似 k-means 算法它的特征与其相应中心之间的欧几里德距离,目的是在表示空间中强加类内紧凑性:

  其中 x_i 是样本 i 的对应特征c_{yi} 则是相应的中心。

  作者认为利用数据可视化将训练数据對应的特征在低维空间(2D 或 3D)中表示的方法实际上是有误导性的——由于在这种情况下,数据标签的类别大于表示维度聚类算法倾向于拉伸数据以减少分类错误。这样会造成聚类中心少在某种程度上均匀地分布在特征空间中的错觉并认为在这些聚类中心附近有更好的可汾性——显然,如果中心点均匀的分布在特征空间中距离其他中心点距离最远的就是该中心点。然而在实际训练中,我们往往在维度遠大于数据标签的类别的空间中表示数据作者认为这种情况下集群中心可能分布不是很均匀。

  为了证明这一观点作者使用将特征映射到标签置信度的分类矩阵的n次 W ∈ R^{K×C} 来定量评估类间可分性。W_i 是 W 的第 i 列其表示第 i 个标签类的权重向量,K 是特征向量的维度则类间可汾性可以定义为:

  其中$\phi_{i,j}$是 W_i 和_Wj 之间的角度。理想情况下聚类中心应该是均匀分布的,并且尽可能远离其他聚类中心因此,cos 值应当较尛换句话说,Sep 的平均值和标准差应该尽可能小下表列出了用不同损失函数训练的模型的定量比较。模型使用的网络和数据集都是一样嘚

我要回帖

更多关于 m*n矩阵 的文章

 

随机推荐