做北京服装廓形分类分类信息的 APP,可能会遇到哪些困难

君,已阅读到文档的结尾了呢~~
社会网络中的消息排序研究,社会网络研究,排序网络,社会价值排序,无线网络排序,古代社会地位排序,网络掩码排序,微信消息排序,社会团体排序,新建图文消息 排序
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
社会网络中的消息排序研究
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='/DocinViewer--144.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口learning to rank(1)
机器学习和数据挖掘(62)
&排序一直是信息检索的核心问题之一,Learning to Rank(简称LTR)用机器学习的思想来解决排序问题(关于Learning to Rank的简介请见我的博文)。LTR有三种主要的方法:PointWise,PairWise,ListWise。Ranking SVM算法是PointWise方法的一种,由R. Herbrich等人在2000提出, T. Joachims介绍了一种基于用户Clickthrough数据使用Ranking SVM来进行排序的方法(SIGKDD, 2002)。
1. Ranking SVM的主要思想
& Ranking SVM是一种Pointwise的排序算法, 给定查询q, 文档d1&d2&d3(亦即文档d1比文档d2相关, 文档d2比文档d3相关, x1, x2, x3分别是d1,
d2, d3的特征)。为了使用机器学习的方法进行排序,我们将排序转化为一个分类问题。我们定义新的训练样本, 令x1-x2, x1-x3, x2-x3为正样本,令x2-x1, x3-x1, x3-x2为负样本,
然后训练一个二分类器(支持向量机)来对这些新的训练样本进行分类,如下图所示:
& 左图中每个椭圆代表一个查询, 椭圆内的点代表那些要计算和该查询的相关度的文档, 三角代表很相关, 圆圈代表一般相关, 叉号代表不相关。我们把左图中的单个的文档转换成右图中的文档对(di, dj), 实心方块代表正样本, 亦即di&dj, 空心方块代表负样本, 亦即di&dj。
2. Ranking SVM
& 将排序问题转化为分类问题之后, 我们就可以使用常用的机器学习方法解决该问题。 Ranking SVM使用SVM来进行分类:
& 其中w为参数向量, x为文档的特征,y为文档对之间的相对相关性,&ξ为松弛变量。
3. 使用Clickthrough数据作为训练数据
& T. Joachims提出了一种非常巧妙的方法, 来使用Clickthrough数据作为Ranking SVM的训练数据。
& 假设给定一个查询&Support Vector Machine&, 搜索引擎的返回结果为
& 其中1, 3, 7三个结果被用户点击过, 其他的则没有。因为返回的结果本身是有序的, 用户更倾向于点击排在前面的结果, 所以用户的点击行为本身是有偏(Bias)的。为了从有偏的点击数据中获得文档的相关信息, 我们认为: 如果一个用户点击了a而没有点击b, 但是b在排序结果中的位置高于a, 则a&b。
& 所以上面的用户点击行为意味着: 3&2, 7&2, 7&4, 7&5, 7&6。
4. Ranking SVM的开源实现
&&上有Ranking SVM的开源实现。
& 数据的格式与LIBSVM的输入格式比较相似, 第一列代表文档的相关性, 值越大代表越相关, 第二列代表查询, 后面的代表特征
3 qid:1 1:1 2:1 3:0 4:0.2 5:0 # 1A
2 qid:1 1:0 2:0 3:1 4:0.1 5:1 # 1B
1 qid:1 1:0 2:1 3:0 4:0.4 5:0 # 1C
1 qid:1 1:0 2:0 3:1 4:0.3 5:0 # 1D
1 qid:2 1:0 2:0 3:1 4:0.2 5:0 # 2A
2 qid:2 1:1 2:0 3:1 4:0.4 5:0 # 2B
1 qid:2 1:0 2:0 3:1 4:0.1 5:0 # 2C
1 qid:2 1:0 2:0 3:1 4:0.2 5:0 # 2D
2 qid:3 1:0 2:0 3:1 4:0.1 5:1 # 3A
3 qid:3 1:1 2:1 3:0 4:0.3 5:0 # 3B
4 qid:3 1:1 2:0 3:0 4:0.4 5:1 # 3C
1 qid:3 1:0 2:1 3:1 4:0.5 5:0 # 3D
& 训练模型和对测试数据进行排序的代码分别为:
& ./svm_rank_learn path/to/train path/to/model&
&./svm_classify path/to/test path/to/model path/to/rank_result
& [1].&R. Herbrich, T. Graepel, and K. Obermayer.&Large margin rank boundaries for ordinal regression. In Advances in Large Margin Classifiers, 2000.&
& [2]. T. Joachims.&Optimizing Search Engines using Clickthrough Data. SIGKDD, 2002.
& [3]. Hang Li.&A Short Introduction to Learning to Rank.
& [4]. Tie-yan Liu.&Learning to Rank for Information Retrieval.
&&相关文章推荐
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:350269次
积分:4711
积分:4711
排名:第5556名
原创:49篇
转载:531篇
评论:20条
(9)(7)(3)(4)(4)(11)(2)(4)(5)(12)(7)(5)(8)(3)(11)(2)(6)(4)(5)(1)(3)(1)(3)(1)(2)(11)(38)(44)(48)(50)(37)(13)(14)(5)(12)(1)(2)(1)(3)(20)(5)(3)(2)(1)(6)(4)(24)(10)(6)(14)(1)(26)(49)(12)1613人阅读
0 串讲列表:
-&样本的采样有哪些方式?
- gbdt在gbrank中有什么作用? gbrank可以用其它的方法来替代gbdt? 如果有, 该方法是怎么工作的?
- gbrank如何防止过拟合?
- gbdt在训练和预测的时候, 都用到了步长, 两个步长是一样的? 有什么用, 如果不一样, 为什么? 怎么设步长的大小? (太小? 太大?)&
& &&在预测时, 设太大对排序结果有什么影响? 跟shrinking里面的步长一样么?
- 树(CART)为什么要剪枝? 如何剪枝的
- gbrank的h(x)函数为什么要加变量&?&不加可不可以?
加了有什么作用? 设多大才合适? 太大对排序有什么影响么?
- boosting的本意是什么? 跟bagging, random forest, adaboost, gradient boosting有什么区别?
1 样本的采样有哪些方式?
- 按query进行采样?
& & - 随机选择query,&一旦选择了某个query,&则该query的所有url都被选择了.
& &&需要注意的时, 对于不同的query,&它的url个数是不一样的(尽管对于query而言, 采样是等概率的, 而对于url而言不是等概率的).
- 按url进行采样
& & -&是事先对每个query的url组成url对,&然后随机采样url对?
& & - 是对url进行采样,&然后对采用到的url进行pairing(要注意只有在同一个query下的url才可以pairing).
& &&不同query的url进行采样时, 它们显得更随机(但是对于query而言, 还是多url的query被抽到的概率偏大)
& & 但是有可能导致抽到query的url不足以pairing.
- 哪种更好? 优缺点?
& &&query的: 对于query而言是随机的, 但是对于query的url而言是绝对的, 可保证每个query的url能够pairing
& &&url的: 更随机.
& &&由于训练样本是url对, 所以希望在抽样的时候, 抽到url的概率是随机的, 所以选择&url&方案.
实际上是结合query采样和url采样, 对于urls少的query用query采样, 对于urls多的采样url采样.
2 gbdt在gbrank中有什么作用?&gbrank可以用其它的方法来替代gbdt?&如果有,&该方法是怎么工作的?
gbdt在gbrank的作用是在每次迭代中, 用负梯度来产生一颗回归树来拟合样本的负梯度, 用拟合后的负梯度来更新模型.
如果能够用其它的方法来拟合每次迭代中的负梯度,
那么该方法就可以替代gbdt. 而这个问题,&本质上是个回归问题.&所以可以用一些回归的方法来替代gdbt. (这样就不一定体现boosting的思想了).
3 gbrank如何防止过拟合?
- 增加样本(data bias or small data的缘故), 移除噪声
- 减少特征, 保留重要的特征(可以用PCA等对特征进行降维)
- 对样本进行采样(类似bagging)
& & 就是建树的时候,&不是把所有的样本都作为输入,&而是选择一个子集.
- 对特征进行采样
& & 类似样本采样一样,&每次建树的时候,&只对部分的特征进行切分.
但采样有个很严重的问题, 就是不可复现, 也就是每次的训练结果不一样, 不知道是调了参数导致效果好, 还是采样导致效果好, 还是其他的?
- 迭代中更关注上次迭代分错的样本?&(但是华哥说, 这是为了更好的拟合目标函数, 而不是防止过拟合).
-&在迭代中, 动态调整学习率.
& &&-&通过对比训练集上的loss和验证集上的accuracy,
当发现loss持续减少, 而accuracy不再提高的时候, 可以判读出现了过拟合.&
& &&(这点上, 与华哥的理解不一致, 华哥认为是欠拟合).
& &&这时要么停止训练, 要么调小学习率, 继续训练?
& & - 训练模型的同时学习学习率/步长.&(见7)
- 对回归树进行剪枝&(见9)
- 减少回归树的个数, 尤其那些作用不大的回归树(在验证集上进行测试).
4 cross entropy loss的物理意义是啥?
根据公式 - log2(p^y * (1-p)^(1-y)) &==& -y*log2(p) - (1-y)*log(1-p) (由于出于方便, 就不写完整的公式).
当预测的概率p和真实label y一致时, loss理应很小; 当它们不一致时, loss会呈指数级增加, 从而惩罚不一致的样本.
所以在训练的时候, 通过惩罚不一致的情况, 来拟合真实情况.
一句话概括: 就是尽可能地让学到的分布与真实分布一致.
5&ltr相对于传统方法有什么好处 or&ltr与传统调参法有什么优缺点?&ltr输入是啥?
- 可以自动学习模型的权重 (当然也可以加入领域知识作为约束来优化模型).
- 易扩展: 对于新增的样本或者特征, 容易加入到原来的模型中, 再重新训练模型.
- 成本低(相对于人工调参而言)
- 容易学习到特征之间的关系.
(快速验证模型的好坏 (相对于传统模型, 训练过程快) ==& 个人想法有待验证)
以上都是针对样本数量大, 特征维度高的情况, 要不然, 直接人工模型即可.
-&迁移学习
ltr的输入:
- feature + label
- feature + new feature + label
- output from models + labels
from models&+ feature + label
from models&+ new feature+ label
from models&+ feature+&new&
feature&+ label
- end-to-end的过程, 即模型训练和特征学习是同时进行的. (raw input ?)
6 ltr怎么定义?&ltr的流程是什么?&(pointwise,&pairwise,&listwise.)&它们有什么优缺点?&为什么现在的rank都使用pairwise方法
- 广义: 指机器学习中任何用于排序的技术.
- 狭义: 排序学习值在排序生成(ranking creation)和排序整合(ranking aggregation)中由于构建排序模型的机器学习方法.
输入: &query, &url&*&*数据集
输出: 每个query排序好的urls
ltr主要有三种方法:
- pointwise: 对&query, url&中的url进行相关性的分类或者回归 (打分)
- pairwise: &对&query, &url1, url2&&中的url1和url2的相关性优先关系进行二分类或者回归
- listwise: & 对&query, &url1, url2, url3, ...&&中的urls进行相关性排序.
它们的优缺点:
- pointwise:&
& &&模型简单, 可以对不同等级/分档的urls进行相关性排序, 不可对同等级/分档的urls进行相关性排序.
- pairwise:&&&
& &&为了解决pointwise中urls不能对相关性进行排序的情况, 它的大概思想是简单地将排序问题转化为二分类问题或者回归问题, 来解决成对urls的相关性排序. 一旦知道任何一对urls的相关性的先后顺序,
就可以通过拓扑排序得到urls的全排序的结果. (实际上在预测时, 是对每一个url进行一个打分, 然后通过对这个打分对urls排序, 得到全排序的结果).
- listwise: &
& &&通过把全排序的问题转为预测permutation的概率, 选择概率最高的permutation. (首先对每个url进行打分, 通过设置不同的函数来对打分进行permutation的概率预测).&
& &&缺点是: 模型过于复杂, 难以设计较好的函数来对permutation进行预测. 另外效果上和pairwise的差不多.
尽管pairwise训练的过程是基于有相关关系的document对的, 但是在预测过程中, pairwise既可以预测对相对关系的document对的相对关系, 也可以针对单个document的, 给单个document进行打分, 根据每个document的打分对documents进行相关性排序. 相对于pointwise而言, pairwise解决了其不可以对同等级/分档的documents进行相关性排序的问题; 相对于listwise而言, pairwise同样可以做到documents的全排序,
效果与listwise的差不多, 而且模型相对简单, 容易学习.
所以现在rank都使用pairwise方法.
7 gbdt在训练和预测的时候,&都用到了步长,&两个步长是一样的?&有什么用,&如果不一样,&为什么?&怎么设步长的大小?&(太小?&太大?)&在预测时,&设太大对排序结果有什么影响?&跟shrinking里面的步长一样么?
训练跟预测时, 两个步长是一样的, 也就是预测时的步长为训练时的步长, 从训练的过程可以得知(更新当前迭代模型的时候).
它的作用就是使得每次更新模型的时候, 使得loss能够平稳地沿着负梯度的方向下降, 不至于发生震荡.
步长的大小不能过大, 也不能过小:
如果步长过大, 在训练的时候容易发生震荡, 使得模型学不好, 或者完全没有学好, 从而导致模型精度不好.
而步长过小, 导致训练时间过长, 即迭代次数较大, 从而生成较多的树, 使得模型变得复杂, 容易造成过拟合以及增加计算量.&
不过步长较小的话, 使训练比较稳定, 总能找到一个稳定的局部最优解.
个人觉得过大过小的话, 模型的预测值都会偏离真实情况(可能比较严重), 从而导致模型精度不好.
那么怎么设步长的大小么?
有两种方法, 一种就是按策略来决定步长, 另一种就是在训练模型的同时, 学习步长.
& &&1 每个树步长恒定且相等, 一般设较小的值;&
& &&2 开始的时候给步长设一个较小值, 随着迭代次数动态改变, 或者说衰减.
& &&因为在训练第k棵树的时候, 前k-1棵树时已知的, 而且求梯度的时候是利用前k-1棵树来获得.
& &&所以这个时候, 就可以把步长当作一个变量来学习.
& &&(有点类似EM的思想)
- 由迭代中的err给出. 如adaboosting.
这里的步长跟跟shrinking里面的步长是一致的.
8 gbrank的h(x)函数为什么要加一个变量不加可不可以?&加了有什么作用?&设多大才合适?&太大对排序有什么影响么?
- 可以不加, 但是加它是为了防止函数h变成常量函数,
- 一般它在(0, 1]之间的取值, 把它设为常量 (这样做是为了简化模型的复杂度)
- 可以把它设为较大一点, 也就是拉大url相关性偏序程度, 让模型学到成对urls对于query的相关性程度.
& & & & & &
先看下公式中,
需要注意到的正则化项.
一般情况不宜过大,
往往设为(0, 1]之间的值.&
如何设置好?
& & -&当设的较小时,
会导致不起作用.
& & -&当设的较大的时候,
会出现什么情况:
- 我们的目标是 当xi &= yi成立的时候, h(xi) &= h(yi) +&成立,
- 根据hinge loss的特点, 模型更新的条件是上述情况不成立.
- 一旦设的很大,
对于大多数的样本来说,&xi &= yi成立的时候, h(xi) &= h(yi) +&是不成立得,
- 由于设的过大,
导致大多数的样本都参与了每次迭代模型更新, 换句话说, 模型没有学好.
- 在测试的时候, 由于模型没有学好, 从而导致大多数的测试样本对都不会满足&xi &= yi成立的时候, h(xi) &= h(yi) +&也成立&,
从而导致测试效果不好.
所以需要对进行约制,
一般的方法就是正则化, 可以用L1/L2来正则化.
(个人觉得的作用类似svm里面的惩罚因子C).
9 树(CART)为什么要剪枝? 如何剪枝的?
当生产的树对训练数据拟合得很好, 但是对验证集/测试集/未知数据的拟合的不好的时候, 该树过拟合.
(过拟合的原因在于学习时, 过多地考虑如何提高训练数据的效果, 从而构建了过于复杂的决策树.)
解决过拟合的方法就是考虑决策树的复杂度, 对已生成的决策树进行简化.
&(剪枝: 将已生成的树进行简化的过程. 具体来说, 剪枝从已生成的树上裁掉一些子树或者叶结点, 并将其根节点或者父节点作为新的叶子节点, 从而简化分类器模型.)
树的剪枝分为两种:
& & 预剪枝就是生成树时的停止条件&(见15)
& & 后剪枝就是对生成的树, 进行剪枝(去掉一些子节点/子树)
这里主要说下CART的后剪枝:
CART剪枝算法从&完全生长&的决策树的底端剪去一些子树, 使决策树变小/模型变得简单, 从而能够对验证集/测试集/未知数据有更好的预测/拟合.
CART剪枝由两步组成:
- 利用训练数据对已生成的决策树T0的底端叶子节点开始, 自底向上地不断剪枝(每次剪枝都会形成一个子树Ti),
直到T0的的根节点, 从而形成一个子树集{T0,&T1,&T2,
-&利用验证集对生成的子树集{T0,&T1,&T2,
,,,,&Tn&}中的每颗子树进行测试,
选择验证效果最好的子树, 作为最终的决策树.
-&树的剪枝往往通过极小化树的整体损失函数或者代价函数(生成树)来实现的, 整体损失函数或者代价函数需要考虑模型的复杂度..
- 定义剪枝的损失函数/代价函数:
& & 在剪枝过程中, 计算子树的损失函数为:&
&& & 其中T为任意子树,&C(T)为对训练数据的预测误差(如最小平方误差),
|T|为子树T的叶结点个数.&为常数(&=0).
& &&为参数为时的子树T的整体误差.
参数权衡着训练数据的拟合程度和模型的复杂度.
- 显然, 对于给定的,
一定存在使损失函数最小的子树,
则该子树在损失函数最小意义下是最优的(想想为什么?
-& 最小能确保模型拟合的好的同时, 减少模型的复杂度). 容易验证这样的子树是唯一的.
- 现在考虑极端情况:&&=
0, 整棵树是最优的,&&=
正无穷大, 跟节点组成的单节点树是最优的.
- Breiman等人的证明:
- 树为T0, 树的节点数为M=|T0|,
树的叶子节点数为N
- 对于每一个节点, 由T0剪掉以该节点作为根节点的子树(保留该节点), 从而得到树Ti, i=1, ...,&M.&(包括原树T0,
共有M+1棵子树)
- 遍历所有可能的&=
-& & 对于每一个子树Ti&=
0: M+1
& 根据损失函数, 用训练集求出子树Ti的损失
-& & 根据子树的损失, 找到损失最小的子树作为当前的最优子树
- 对于每一个,
用验证集来计算其最优子树的效果.
- 选择效果最好的子树作为树T0剪枝后的树.
上述的过程是暴力的方法, 其计算复杂度是不可控的.
所以需要优化.其实我们并不需要知道的具体取值是多少.&而是知道什么情况下剪掉子树即可,
即剪枝后整体损失函数减少的程度.&根据Breiman等人的证明:
具体地, 从整体树T0开始剪枝,
对于任何的节点t, 都可以:
10 boosting的本意是什么?&跟bagging, random forest,&adaboost,&gradient
boosting有什么区别?
可以看成是一种圆桌会议, 或是投票选举的形式. 通过训练多个模型, 将这些训练好的模型进行加权组合来获得最终的输出结果(分类/回归), 一般这类方法的效果, 都会好于单个模型的效果. 在实践中, 在特征一定的情况下, 大家总是使用Bagging的思想去提升效果. 例如kaggle上的问题解决, 因为大家获得的数据都是一样的, 特别是有些数据已经过预处理.
基本的思路比较简单, 就是:训练时, 使用replacement的sampling方法, sampling一部分训练数据k次并训练k个模型;预测时, 使用k个模型, 如果为分类, 则让k个模型均进行分类并选择出现次数最多的类(每个类出现的次数占比可以视为置信度);如为回归, 则为各类器返回的结果的平均值.&在该处,&Bagging算法可以认为每个分类器的权重都一样
由于每次迭代的采样是独立的, 所以bagging可以并行.
而boosting的采样或者更改样本的权重依赖于上一次迭代的结果, 在迭代层面上是不能并行的.
random forest:
随机森林在bagging的基础上做了修改.
- 从样本集散用Boostrap采样选出n个样本, 预建立CART
- 在树的每个节点上, 从所有属性中随机选择k个属性/特征, 选择出一个最佳属性/特征作为节点
- 重复上述两步m次, i.e.build m棵cart
- 这m棵cart形成random forest.
随机森林可以既处理属性是离散的量, 比如ID3算法, 也可以处理属性为连续值得量, 比如C4.5算法.
这里的random就是指:
& & - boostrap中的随机选择样本
& & - random subspace的算法中从属性/特征即中随机选择k个属性/特征, 每棵树节点分裂时, 从这随机的k个属性/特征, 选择最优的.
(采样的OOB问题,&见22)
& & -&Kearns & Valiant (1984)
& &&& &&PAC学习模型
-&提出问题:
& -&强学习算法:存在一个多项式时间的学习算法以识别一组概念,且识别的正确率很高。
& -&弱学习算法:识别一组概念的正确率仅比随机猜测略好。
& -&弱学习器与强学习器的等价问题。如果两者等价,只需找到一个比随机猜测略好的学习算法,就可以将其提升为强学习算法。
& & -&Kearns & Valiant (1989)
& &&& &&证明了弱学习器和强学习器的等价问题。
& & -&Schapire (1989)
& &&& &&第一个提出了一个可证明的多项式时间的Boosting算法。
& & -&Schapire, etc. (1993)
& &&& &&第一次把Boosting算法思想用于实际应用:OCR。
& & -&Freund & Schapire (1995)
& &&& &&AdaBoost算法
- boosting是”提升”的意思.&一般Boosting算法都是一个迭代的过程, 每一次新的训练都是为了改进上一次的结果.&
- boosting在选择hyperspace的时候给样本加了一个权值,使得loss function尽量考虑那些分错类的样本(如分错类的样本weight大).&怎么做的呢?
- boosting重采样的不是样本,而是样本的分布,对于分类正确的样本权值低,分类错误的样本权值高(通常是边界附近的样本),最后的分类器是很多弱分类器的线性叠加(加权组合).
或者这么理解也是可以的:
如果弱学习器与强学习器是等价的, 当强学习器难以学习时(如强学习器高度非线性等), 问题就可以转化为这样的学习问题:&
& &&学习多个弱分类器(弱分类器容易学习),
并将多个弱分类器组合成一个强分类器(与原来的强学习器等价).
adaboosting:
这其实思想相当的简单, 大概是对一份数据, 建立M个模型(比如分类), 而一般这种模型比较简单, 称为弱分类器(weak learner). 每次分类都将上一次分错的数据权重提高一点, 对分对的数据权重降低一点, 再进行分类.&这样最终得到的分类器在测试数据与训练数据上都可以得到比较好的效果.&
每次迭代的样本是一样的, 即没有采样过程, 不同的是不同的样本权重不一样. (当然也可以对样本/特征进行采样, 这个不是adaboosting的原意).
另外, 每个分类器的步长由在训练该分类器时的误差来生成.
gradient boosting:&
每一次的计算是为了减少上一次的残差(residual),&而为了消除残差,&我们可以在残差减少的梯度
(Gradient)方向上建立一个新的模型. 所以说在Gradient Boost中,&每个新模型是为了使之前模型的残差往梯度方向减少,&与传统Boost对正确,&错误的样本进行加权有着很大的区别.
(或者这样理解:&每一次建立模型是在之前建立模型损失函数的梯度下降方向.&这句话有一点拗口,
&损失函数(loss function)描述的是模型的不靠谱程度, &损失函数越大,
&则说明模型越容易出错(其实这里有一个方差、偏差均衡的问题, &但是这里就假设损失函数越大,&模型越容易出错).
如果我们的模型能够让损失函数持续的下降, &则说明我们的模型在不停的改进, &而最好的方式就是让损失函数在其Gradient的方向上下降).
11 cross-entropy loss对于hinge loss有什么好处?
- cross-entropy的解释性强
- 通过作图可以看出, cross-entropy是平滑的, 而hinge loss不是平滑的
- hinge loss 对于正例的loss是0, 反例不是0, 这样导致其在每次迭代中, 只用到反例来更新模型(也就是只用了反例来建树, 丢失了正例的信息)
- 从它们的loss上看, hinge loss对反例的惩罚是呈指数增长的, 而hinge loss是线性增长的.
12 决策树有什么有优缺点?
- 可解释强
- 学习能力强, 高效地处理非线性问题
- 应用范围广, 处理分类, 回归, 排序问题
- 数据准备代价低
- 容易过拟合
- 训练代价相对高
- 特征分析相对难
13 ensemble的思想
- 单个弱学习器决策能力有限
- 继承多个弱学习器可以获得更强的决策能力
- 泛化能力好 (多样性, 准确性)
14 gbdt哪些部分可以并行?
- 计算每个样本的扶负梯度
- 分裂挑选最佳特征及其分割点时, 对特征计算相应的误差及均值时
- 更新每个样本的负梯度时
- 最后预测过程中, 每个样本将之前的所有树的结果累加的时候
15 单棵树停止生长的条件?
- 节点分裂时的最小样本数
- 最大深度
- 最多叶子节点数
- loss满足约束条件
16&&另外树的个数越多越好么?&还是越小越好?&怎么确定树的个数?
- 树的棵树过少的话, 容易导致欠拟合, 即模型的精度不高
- 树的棵树过多的话, 容易导致模型过拟合, 而模型的复杂度大, 导致计算量大
- 所以树的个数要适中
如何确定树的棵数?
- 先选取一个比较大的数, 然后用二分法逐步减少树的数目, 分别计算相应的点画图, 看哪个过拟合了, 哪个变得平滑, 就确定这个数.
- 但是这个是在验证集上检验.
17 怎么对数据特征分析来帮助模型训练?
- 特征的分布: 按特征的取值分段, 每一段包含的样本数量, 特征均值, 方差等.
- 目标分布 (同上)
- 特征目标关系: 特征分段, 每段中包含的样本的目标取值.
- 目标特征关系: 目标分段, 每段中包含的样本的特征取值.
18 模型在类似Cross-Validation上测试效果不错, 但在开发测试上效果不佳?
- 选取的训练数据的覆盖度不够, 即数据集不具有代表性(不过完备), 不能体现真实数据的分布.
- 模型迁移 (model drift), 随着时间的转移, 特征数据也会跟着变化. 比如3个月前的模型对现在的特征可能不会有好的结果.
19 回归问题可以用哪些loss?
-&0-1损失:
& &&是在分类问题中你实际上需要的. 不幸的是, 这是非凸优化问题. 由于最优化问题会变得或多或少的不好解, 因此并不实用.
- hinge loss (合页损失):&
& &&常用于“maximum-margin”的算法.
- cross entropy loss
& &&导出很好的概率校准.&
& &&因此如果你不仅得到二值预测, 还可以得出结果的概率, 这个损失函数是一个很好的选择. (如比如逻辑回归)
& &&缺点是它的解在数据空间中是不稀疏的, 它比合页损失函数更容易受到离群点的影响.
- square loss or&Mean squared error:
& & 预测值和真实值之间的平方误差总和.
-&感知器损失函数:
& &&基本上是合页损失函数的移动版本.
& &&合页损失函数也惩罚非常接近边界但是在正确一边的点(间隔最大化准则).
& &&另一方面感知器损失函数只要数据点在边界正确的一边就可以.
& &&如果数据是线性可分就使得边界待定. 导致比间隔最大化更差的泛化性.
-&指数损失函数
& &&非常容易受离群点的影响.
& &&它主要适用于Adaboost中, 因为它在一个简单有效的boosting算法中有效果.
20 如何防止树生长成畸形树(即树不平衡) ?
在生成树的过程中, 加入树不平衡的约束条件. 这种约束条件可以是用户自定义的.
例如对样本集中分到某个节点, 而另一个节点的样本很少的情况进行惩罚.
21 采样类型有哪些? 哪个更好?&
可以理解为重采样, 重采样是通过增加稀有类训练样本数的上采样和减少大类样本树的下采样, 从而使得不平衡的样本分布变得比较平衡, 从而提高分类器对稀有类的识别率.
- 上采样(up-sampling)
& & 最原始的上采样是复制稀有类的样本, 但是这样做容易导致过学习, 并且对提高稀有的类识别率没有太大帮助.
& & 较高级的上采样方法则采用一些启发式技巧, 有选择地复制稀有类样本, 或者生成新的稀有样本:
& &&& & - 为每个稀有样本随机选出几个邻近样本, 并且在该样本与这些邻近样本的连线上随机取点或者线性插值, 来生成无重复的新的稀有类样本.
& &&& & - 在稀有样本上加上随机噪声的方式来获取新的正类样本.
& &&& & - 将稀有类和大类交叉分布区域内的样本重新划分为稀有类.
- 下采样 (down-sampling)
& & 通过舍弃大类样本的方式, 降低样本不平衡程度.
& &&& & - 去掉大类中的噪声样本, 边界样本, 冗余样本.
可以考虑同时采用上采样和下采样以及不同的采样率, 来获得大量的子分类器, 并使用混合专家(mixture-of-experts)的学习框架将这些子分类器集成.
22 bootstrap sample是什么? OOB(out of boostrap)是什么?&
boostrap sample: 是一种从给定训练集中有返回的均匀抽样, 也就是, 每当选中一个样本, 它等可能地再次被抽中, 并被添加到训练集中.
23 cart剪枝时候, 适合很多棵树的情况么?
树的剪枝往往针对于一颗树或者少量树来说的, 主要是修正树的过拟合的同时, 简化模型.
如果树太多的话, 对每棵树都进行剪枝, 就不太适合了.
- 由太多树集成的强分类器中的树一般都是简单的, 可以不用剪枝.
- 由于树太多, 对每棵树进行剪枝的代价太大
- 难以衡量剪枝对结果的影响(很难说是哪颗/哪些树剪枝后对结果是正收益还是负收益), 或者说难以给出一个很好的剪枝方案.
&&相关文章推荐
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:87961次
积分:1603
积分:1603
排名:千里之外
原创:74篇
转载:10篇
评论:99条
(2)(1)(1)(5)(3)(2)(4)(3)(2)(3)(1)(2)(1)(1)(9)(15)(1)(1)(1)(11)(8)(2)(1)(1)(2)(2)(1)

我要回帖

更多关于 服装定制遇到的问题 的文章

 

随机推荐