有大神可以共享一下ImageNemnist数据集下载吗

ImageNet 图像数据集分类标签及对应的名称这份数据是 ILSVRC2012 年比赛所有的数据,下载解压后如下: 请确认的确是你想要的数据,千万不要出现下载了一个礼拜,解...
暂无评价|0人阅读|0次下载|举报文档cvpr15论文汇报_计算机软件及应用_IT/计算机...网络深度越深,训练数据越多,精度是否越高? ? 针对ImageNet数据集,网络深度越...
暂无评价|0人阅读|0次下载|举报文档 图像物体分类与检测算法综述(黄凯奇)_物理...ImageNet[27]是由 FeiFei Li 主持构建的大规模图像 数据库,图像类别按照 ...
2.1 mnist 数据集的获取 mnist 数据集可以在官网下载或者直接运行命令脚本文件...bvlc_reference_caffenet.caffemodel \ data/ilsvrc12/imagenet_mean.binary...
暂无评价|0人阅读|0次下载|举报文档caffe源代码解析...使用现有的 ImageNet 训练好的模型进行图片分类。 ...看到 hdf5、leveldb、lmdb,确实是与具体数据相关了。...
暂无评价|0人阅读|0次下载|举报文档图像识别中的深度学习---王晓刚_教育学/心理...描述 深度学习 当时的训练数据集规模都较小, ImageNet[2] 训练集 15 专题 ...
暂无评价|0人阅读|0次下载|举报文档基于卷积神经网络...神经网络进行实验的分析设计 ,实现一类图像数据的分类...Hinton 在 2012 年参加 ImageNet LSVRC 比赛上提出...
1.1 准备数据库:MNIST 手写字体库 运行以下指令下载: cd $CAFFE_ROOT/data/...函数去激活神经元 这次设计包含 CNNs 的精髓,即像训练 imageNet 那样也是运用...
暂无评价|0人阅读|0次下载|举报文档卷积神经网络 -...数据并行是指 在不同的GPU上,模型结构相同,但将...I,?Hinton?G?E.?Imagenet?classification?with?...
暂无评价|0人阅读|0次下载|举报文档R-CNN系列_工学_高等教育_教育专区。基于...迁移学习:例如我们先对Imagenet数据集(ILSVRC 2012的数据集)进行CNN的 分类预...小木虫 --- 600万学术达人喜爱的学术科研平台
热门搜索:
&&有没有人用过ImageNet DataSet的人?
有没有人用过ImageNet DataSet的人?
我想问问,ImageNet DataSet这个数据集大家是怎么下载的呢?我不是问该怎么注册,我有用户名和密码的。而且已经开始下载了。但是好慢啊,而且我已经下了10个G了。
问题有两个:
1:这个数据集总容量是多大?
2:有没有什么快速下载方法?
Thank you ,I've got what I want.The only way to download all images from ImageNet is SVN, and the size of all images is 110GB.
如何下载imagenet上的数据集啊,想用上面数据做测试,求教~谢谢
学术必备与600万学术达人在线互动!
扫描下载送金币摸索了一下,imagenet2012下载,跟大家分享一下
用迅雷会员加速都可以下载,有的用百度云也可以离线下载
阅读(...) 评论()中国领先的IT技术网站
51CTO旗下网站
无需数学背景,读懂ResNet、Inception和Xception三大变革性架构
本文将聚焦于 ResNet、Inception 和 Xception 架构背后的直观原理,并将解释为什么它们成为了计算机视觉领域后续许多成果的构建模块。
作者:机器之心编译| 14:54
神经网络领域近年来出现了很多激动人心的进步,斯坦福大学的 Joyce Xu 近日在 Medium
上谈了她认为「真正重新定义了我们看待神经网络的方式」的三大架构: ResNet、Inception 和
Xception。机器之心对本文进行了编译介绍,更多架构可参阅机器之心文章《》。
过去几年来,计算机视觉领域中深度学习的诸多进展都可以归结到几种神经网络架构。除开其中的所有数学内容、代码和实现细节,我想探索一个简单的问题:这些模型的工作方式和原因是什么?
在本文写作时,Keras 已经将这 6 种预训练模型集成到了库中:
Inception v3
VGG 网络以及从 2012 年以来的 AlexNet
都遵循现在的基本卷积网络的原型布局:一系列卷积层、最大池化层和激活层,最后还有一些全连接的分类层。MobileNet 本质上是为移动应用优化后的
Xception 架构的流线型(streamline)版本。但剩下的三个却真正重新定义了我们看待神经网络的方式。
本文的剩余部分将聚焦于 ResNet、Inception 和 Xception
架构背后的直观原理,并将解释为什么它们成为了计算机视觉领域后续许多成果的构建模块。
ResNet 诞生于一个美丽而简单的观察:为什么非常深度的网络在增加更多层时会表现得更差?
直觉上推测,更深度的网络不会比更浅度的同类型网络表现更差吧,至少在训练时间上是这样(当不存在过拟合的风险时)。让我们进行一个思想实验,假设我们已经构建了一个
n 层网络,并且实现了一定准确度。那么一个 n+1 层网络至少也应该能够实现同样的准确度&&只要简单复制前面 n
层,再在最后一层增加一层恒等映射就可以了。类似地,n+2、n+3 和 n+4
层的网络都可以继续增加恒等映射,然后实现同样的准确度。但是在实际情况下,这些更深度的网络基本上都会表现得更差。
ResNet 的作者将这些问题归结成了一个单一的假设:直接映射是难以学习的。而且他们提出了一种修正方法:不再学习从 x 到 H(x)
的基本映射关系,而是学习这两者之间的差异,也就是「残差(residual)」。然后,为了计算 H(x),我们只需要将这个残差加到输入上即可。
假设残差为 F(x)=H(x)-x,那么现在我们的网络不会直接学习 H(x) 了,而是学习 F(x)+x。
这就带来了你可能已经见过的著名 ResNet(残差网络)模块:
ResNet 模块
的每一个「模块(block)」都由一系列层和一个「捷径(shortcut)」连接组成,这个「捷径」将该模块的输入和输出连接到了一起。然后在元素层面上执行「加法(add)」运算,如果输入和输出的大小不同,那就可以使用零填充或投射(通过
1&1 卷积)来得到匹配的大小。
回到我们的思想实验,这能大大简化我们对恒等层的构建。直觉上就能知道,比起从头开始学习一个恒等变换,学会使 F(x) 为 0 并使输出仍为 x
要容易得多。一般来说,ResNet 会给层一个「参考」点 x,以 x 为基础开始学习。
这一想法在实践中的效果好得让人吃惊。在此之前,深度神经网络常常会有梯度消失问题的困扰,即来自误差函数的梯度信号会在反向传播回更早的层时指数级地下降。本质上讲,在误差信号反向回到更早的层时,它们会变得非常小以至于网络无法学习。但是,因为
ResNet 的梯度信号可以直接通过捷径连接回到更早的层,所以我们一下子就可以构建 50 层、101 层、152 层甚至 1000
层以上的网络了,而且它们的表现依然良好。那时候,这在当时最佳的基础上实现了巨大的飞跃&&这个 22 层的网络赢得了 ILSVRC 2014 挑战赛。
是神经网络领域我个人最喜欢的进展之一。很多深度学习论文都是通过对数学、优化和训练过程进行调整而取得一点点微小的进步,而没有思考模型的底层任务。ResNet
则从根本上改变了我们对神经网络及其学习方式的理解。
有趣的事实:
上面提到的 1000
多层的网络是开源的!我并不推荐你尝试再训练,但如果你就是要上:/KaimingHe/resnet-1k-layers
如果你觉得这有用而且有点跃跃欲试,我最近将 ResNet50 移植到了开源的 Clojure ML 库 Cortex
中:/thinktopic/cortex。你可以试试,看与 Keras 比较如何!
如果 ResNet 是为了更深,那么 Inception 家族就是为了更宽。Inception
的作者对训练更大型网络的计算效率尤其感兴趣。换句话说:我们怎样在不增加计算成本的前提下扩展神经网络?
Inception 最早的论文关注的是一种用于深度网络的新型构建模块,现在这一模块被称为「Inception
module」。究其核心,这种模块源自两种思想见解的交汇。
第一个见解与对层的操作有关。在传统的卷积网络中,每一层都会从之前的层提取信息,以便将输入数据转换成更有用的表征。但是,不同类型的层会提取不同种类的信息。5&5
卷积核的输出中的信息就和 3&3 卷积核的输出不同,又不同于最大池化核的输出&&在任意给定层,我们怎么知道什么样的变换能提供最「有用」的信息呢?
见解 1:为什么不让模型选择?
Inception 模块会并行计算同一输入映射上的多个不同变换,并将它们的结果都连接到单一一个输出。换句话说,对于每一个层,Inception 都会执行
5&5 卷积变换、3&3 卷积变换和最大池化。然后该模型的下一层会决定是否以及怎样使用各个信息。
这种模型架构的信息密度更大了,这就带来了一个突出的问题:计算成本大大增加。不仅大型(比如
5&5)卷积过滤器的固有计算成本高,并排堆叠多个不同的过滤器更会极大增加每一层的特征映射的数量。而这种计算成本增长就成为了我们模型的致命瓶颈。
想一下,每额外增加一个过滤器,我们就必须对所有输入映射进行卷积运算以计算单个输出。如下图所示:从单个过滤器创建一个输出映射涉及到在之前一层的每个单个映射上执行计算。
假设这里有 M 个输入映射。增加一个过滤器就意味着要多卷积 M 次映射;增加 N 个过滤器就意味着要多卷积 N*M
次映射。换句话说,正如作者指出的那样:「过滤器数量的任何统一增长都会导致计算量的 4 倍增长。」我们的朴素 Inception
模块只是将过滤器的数量增加了三四倍。但从计算成本上看,这简直就是一场大灾难。
这就涉及到了见解 2:
使用 1&1 卷积来执行降维。为了解决上述计算瓶颈,Inception 的作者使用了 1&1 卷积来「过滤」输出的深度。一个 1&1
卷积一次仅查看一个值,但在多个通道上,它可以提取空间信息并将其压缩到更低的维度。比如,使用 20 个 1&1 过滤器,一个大小为 64&64&100(具有
100 个特征映射)的输入可以被压缩到 64&64&20。通过减少输入映射的数量,Inception
可以将不同的层变换并行地堆叠到一起,从而得到既深又宽(很多并行操作)的网络。
这能达到多好的效果?Inception 的第一个版本是 GoogLeNet,也就是前面提及的赢得了 ILSVRC 2014 比赛的 22
层网络。一年之后,研究者在第二篇论文中发展出了 Inception v2 和
v3,并在原始版本上实现了多种改进&&其中最值得一提的是将更大的卷积重构成了连续的更小的卷积,让学习变得更轻松。比如在 v3 中,5&5 卷积被替换成了两个
连续的 3&3 卷积。
Inception 很快就变成了一种具有决定性意义的模型架构。最新的版本 Inception v4 甚至将残差连接放进了每一个模组中,创造出了一种
Inception-ResNet 混合结构。但更重要的是,Inception
展现了经过良好设计的「网中有网」架构的能力,让神经网络的表征能力又更上了一层楼。
有趣的事实:
最早的 Inception
论文确实引用了来自电影《盗梦空间(Inception)》的「我们需要更深」的互联网模因作为其名字的来源,参见:/memes/we-need-to-go-deeper。这肯定是
(/) 第一次出现在一篇谷歌论文的参考文献里。
第二篇 Inception 论文(提出 v2 和 v3)是在最早的 ResNet 论文发布之后的第二天发布的。2015 年 12
月真是深度学习的好日子。
Xception 表示「extreme
inception」。和前面两种架构一样,它重塑了我们看待神经网络的方式&&尤其是卷积网络。而且正如其名字表达的那样,它将 Inception
的原理推向了极致。
它的假设是:「跨通道的相关性和空间相关性是完全可分离的,最好不要联合映射它们。」
这是什么意思?在传统的卷积网络中,卷积层会同时寻找跨空间和跨深度的相关性。让我们再看一下标准的卷积层:
在上图中,过滤器同时考虑了一个空间维度(每个 2&2 的彩色方块)和一个跨通道或「深度」维度(4 个方块的堆叠)。在输入图像的输入层,这就相当于一个在所有
3 个 RGB 通道上查看一个 2&2 像素块的卷积过滤器。那问题来了:我们有什么理由去同时考虑图像区域和通道?
在 Inception 中,我们开始将两者稍微分开。我们使用 1&1
的卷积将原始输入投射到多个分开的更小的输入空间,而且对于其中的每个输入空间,我们都使用一种不同类型的过滤器来对这些数据的更小的 3D
模块执行变换。Xception 更进一步。不再只是将输入数据分割成几个压缩的数据块,而是为每个输出通道单独映射空间相关性,然后再执行 1&1
的深度方面的卷积来获取跨通道的相关性。
其作者指出这本质上相当于一种已有的被称为「深度方面可分的卷积(depthwise separable
convolution)」的运算,它包含一个深度方面的卷积(一个为每个通道单独执行的空间卷积),后面跟着一个逐点的卷积(一个跨通道的 1&1
卷积)。我们可以将其看作是首先求跨一个 2D 空间的相关性,然后再求跨一个 1D 空间的相关性。可以看出,这种 2D+1D 映射学起来比全 3D
映射更加简单。
而且这种做法是有效的!在 ImageNet 数据集上,Xception 的表现稍稍优于 Inception v3,而且在一个有 17000
类的更大规模的图像分类数据集上的表现更是好得多。最重要的是,它的模型参数的数量和 Inception 一样多,说明它的计算效率也更高。Xception
非常新(2017 年 4 月才公开),但正如前面提到的那样,这个架构已经在通过 MobileNet 助力谷歌的移动视觉应用了。
有趣的事实:
Xception 的作者也是 Keras 的作者。Francois Chollet 是真正的大神。
这就是 ResNet、Inception 和
Xception!我坚信我们需要对这些网络有很好的直观理解,因为它们在研究界和产业界的应用越来越普遍。我们甚至可以通过所谓的迁移学习将它们用在我们自己的应用中。
迁移学习是一种机器学习技术,即我们可以将一个领域的知识(比如
ImageNet)应用到目标领域,从而可以极大减少所需要的数据点。在实践中,这通常涉及到使用来自 ResNet、Inception
等的预训练的权重初始化模型,然后要么将其用作特征提取器,要么就在一个新数据集上对最后几层进行微调。使用迁移学习,这些模型可以在任何我们想要执行的相关任务上得到重新利用,从自动驾驶汽车的目标检测到为视频片段生成描述。
要了解迁移学习,Keras
有一个关于微调模型的很棒的指南:
https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html。如果你对此有兴趣,一定不要错过!
/towards-data-science/an-intuitive-guide-to-deep-network-architectures-65fdc477db41
【本文是51CTO专栏机构&机器之心&的原创译文,微信公众号&机器之心( id: almosthuman2014)&】
【编辑推荐】
【责任编辑: TEL:(010)】
大家都在看猜你喜欢
人工智能媒体与产业服务
本周排行本月排行
讲师:112109人学习过
讲师:17562人学习过
讲师:82830人学习过

我要回帖

更多关于 voc2007数据集下载 的文章

 

随机推荐