笔记本上跑tensorfloww官方网站为什么不能上了

更多频道内容在这里查看
爱奇艺用户将能永久保存播放记录
过滤短视频
暂无长视频(电视剧、纪录片、动漫、综艺、电影)播放记录,
使用您的微博帐号登录,即刻尊享微博用户专属服务。
使用您的QQ帐号登录,即刻尊享QQ用户专属服务。
使用您的人人帐号登录,即刻尊享人人用户专属服务。
按住视频可进行拖动
&正在加载...
请选择打赏金额:
把视频贴到Blog或BBS
当前浏览器仅支持手动复制代码
视频地址:
flash地址:
html代码:
通用代码:
通用代码可同时支持电脑和移动设备的分享播放
收藏成功,可进入
查看所有收藏列表
用爱奇艺APP或微信扫一扫,在手机上继续观看:
一键下载至手机
限爱奇艺安卓6.0以上版本
使用微信扫一扫,扫描左侧二维码,下载爱奇艺移动APP
其他安装方式:手机浏览器输入短链接http://71.am/udn
下载安装包到本机:
设备搜寻中...
请确保您要连接的设备(仅限安卓)登录了同一爱奇艺账号 且安装并开启不低于V6.0以上版本的爱奇艺客户端
连接失败!
请确保您要连接的设备(仅限安卓)登录了同一爱奇艺账号 且安装并开启不低于V6.0以上版本的爱奇艺客户端
部安卓(Android)设备,请点击进行选择
请您在手机端下载爱奇艺移动APP(仅支持安卓客户端)
使用微信扫一扫,下载爱奇艺移动APP
其他安装方式:手机浏览器输入短链接http://71.am/udn
下载安装包到本机:
爱奇艺云推送
请您在手机端登录爱奇艺移动APP(仅支持安卓客户端)
使用微信扫一扫,下载爱奇艺移动APP
180秒后更新
打开爱奇艺移动APP,点击“我的-扫一扫”,扫描左侧二维码进行登录
没有安装爱奇艺视频最新客户端?
爸爸去哪儿2游戏 立即参与
30秒后自动关闭
tensorflow 官网上不去">tensorflow 官网上不去
播放量数据:快去看看谁在和你一起看视频吧~
您使用浏览器不支持直接复制的功能,建议您使用Ctrl+C或右键全选进行地址复制
安装爱奇艺视频客户端,
马上开始为您下载本片
5秒后自动消失
&li data-elem="tabtitle" data-seq="{{seq}}"& &a href="javascript:void(0);"& &span>{{start}}-{{end}}&/span& &/a& &/li&
&li data-downloadSelect-elem="item" data-downloadSelect-selected="false" data-downloadSelect-tvid="{{tvid}}"& &a href="javascript:void(0);"&{{pd}}&/a&
选择您要下载的《
色情低俗内容
血腥暴力内容
广告或欺诈内容
侵犯了我的权力
还可以输入
您使用浏览器不支持直接复制的功能,建议您使用Ctrl+C或右键全选进行地址复制为什么在windows下用不了tensorflow? - 知乎333被浏览54213分享邀请回答godoc./tensorflow/tensorflow/tensorflow/go)新的 checkpoint 格式现在是 tf.train.Saver 中的默认值。旧 V1 chekpoint 仍然可读; 由 write_version 参数控制,tf.train.Saver 现在默认写入新的 V2 格式。这种方式显著降低了恢复期间所需的内存峰值,同时降低了延迟。为无矩阵(迭代)解算器增加了新的库,支持 tensorflow/contrib/solvers 中的线性方程、线性最小二乘法,特征值和奇异值。最初的版本具有 lanczos 双对角化(bidiagonalization)、共轭梯度和 CGLS。为 matrix_solve_ls 和 self_adjoint_eig 增加了梯度。对原有内容进行了大量清理,为具有 C ++梯度的运算添加二阶梯度,并改进现有梯度,使大多数运算现在可以多次微分。增加了常微分方程的求解器:tf.contrib.integrate.odeint。用于具有命名轴的张量的新 contrib 模块,tf.contrib.labeled_tensor。TensorBoard 中嵌入(embedding)的可视化。主要 API 改进BusAdjacency 枚举被协议缓冲 DeviceLocality 代替。总线索引现在从 1 而不是 0 开始,同时,使用 bus_id==0,之前为 BUS_ANY。Env::FileExists 和 FileSystem::FileExists 现在返回 tensorflow::Status 而不是一个 bool。任何此函数的调用者都可以通过向调用添加.ok()将返回转换为 bool。C API:TF_SessionWithGraph 类型更名为 TF_Session,其在 TensorFlow 的绑定语言中成为首选。原来的 TF_Session 已更名为 TF_DeprecatedSession。C API: TF_Port 被更名为 TF_Output。C API: 调用者保留提供给 TF_Run、 TF_SessionRun、TF_SetAttrTensor 等的 TF_Tensor 对象的所有权。将 tf.image.per_image_whitening() 更名为 tf.image.per_image_standardization()。将 Summary protobuf 构造函数移动到了 tf.summary 子模块。不再使用 histogram_summary、audio_summary、 scalar_summary,image_summary、merge_summary 和 merge_all_summaries。组合 batch_ *和常规版本的线性代数和 FFT 运算。常规运算现在也处理批处理。所有 batch_ * Python 接口已删除。tf.all_variables,tf.VARIABLES 和 tf.initialize_all_variables 更名为 tf.global_variables,tf.GLOBAL_VARIABLES 和 tf.global_variable_initializers respectively。Bug 修复和其他的变化使用线程安全版本的 lgamma 函数。修复 tf.sqrt 负参数。修正了导致用于多线程基准的线程数不正确的错误。多核 CPU 上 batch_matmul 的性能优化。改进 trace,matrix_set_diag,matrix_diag_part 和它们的梯度,适用于矩形矩阵。支持复值矩阵的 SVD。选自 Google Developers Blog:23735 条评论分享收藏感谢收起/2016/11/tensorflow-0-12-adds-support-for-windows.htmlPosted by , Software EngineerToday we are launching preliminary Windows support for TensorFlow.Native support for TensorFlow on Windows was one of the first after open-sourcing TensorFlow. Although some Windows users have managed to run TensorFlow in a Docker container, we wanted to provide a more complete experience including GPU support.With the release of TensorFlow r0.12, we now provide a native TensorFlow package for Windows 7, 10, and Server 2016. This release enables you to speed up your TensorFlow training with any GPU that runs CUDA 8.We have published the latest release as a , so now you can install TensorFlow with a single command:
C:\& pip install tensorflowAnd for GPU support:
C:\& pip install tensorflow-gpuMore details about Windows support and all of the other new features in r0.12 are included in the .We're excited to offer more people the opportunity to use TF at maximum speed. Follow us on Twitter to be the first to hear about future releases – we're .AcknowledgementsMany people have contributed to making this release possible. In particular, we'd like to thank Guenther Schmuelling and Vit Stepanovs from Microsoft for their significant contributions to Windows support.原答案:TensorFlow之前没有native Windows版本的原因主要有两个:TF自己的C++代码不能用Visual Studio的MSVC toolchain编译TF在Linux和Mac上使用的Build System - Bazel不支持Windows不过目前TF已经成功把代码port到Windows,Bazel从0.3.2版本也开始支持Windows(虽然不太稳定,但基本能用。。)现在有两种在Windows上build TensorFlow的方法,CMake: Bazel: TF在port C++代码到Windows的时候用的是CMake, 所以这个方法除了编译慢应该没有大问题,并且已经开始支持GPU(GPU支持是很多人想在Windows上用TF的原因)。Bazel build的优点是速度快,特别是incremental build会比CMake快很多,0.3.2版本还只能build TF的C++ example trainer,不过刚刚发布的0.4.0版本已经支持build python PIP package了。 GPU build with Bazel还要再等等。。TensorFlow的计划当然是等Bazel在Windows上稳定后,把整个Windows build迁移到Bazel。如果不想自己build,TF之后可能也会直接发布一个Windows版本的Python wheel file (PIP package),应该能直接在winPython里安装使用,不过目前在Windows上只支持Python 3.5。相关的链接:2521 条评论分享收藏感谢收起查看更多回答你真的懂TensorFlow吗?为什么会Flow?
大数据文摘作品,转载要求见文末
编译 | 邵胖胖,江凡,笪洁琼,Aileen
也许你已经下载了TensorFlow,而且准备开始着手研究深度学习。但是你会疑惑:TensorFlow里面的Tensor,也就是“张量”,到底是个什么鬼?也许你查阅了维基百科,而且现在变得更加困惑。也许你在NASA教程中看到它,仍然不知道它在说些什么?问题在于大多数讲述张量的指南,都假设你已经掌握他们描述数学的所有术语。
我像小孩子一样讨厌数学,所以如果我能明白,你也可以!我们只需要用简单的措辞来解释这一切。所以,张量(Tensor)是什么,而且为什么会流动(Flow)?
0维张量/标量标量是一个数字
1维张量/向量1维张量称为“向量”。
2维张量2维张量称为矩阵
公用数据存储在张量
时间序列数据
让我们先来看看tensor(张量)是什么?
张量是现代机器学习的基础。它的核心是一个数据容器,多数情况下,它包含数字,有时候它也包含字符串,但这种情况比较少。因此把它想象成一个数字的水桶。
张量有多种形式,首先让我们来看最基本的形式,你会在深度学习中偶然遇到,它们在0维到5维之间。我们可以把张量的各种类型看作这样(对被题目中的猫咪吸引进来小伙伴说一句,不要急!猫咪在后面会出现哦!):
0维张量/标量
装在张量/容器水桶中的每个数字称为“标量”。
标量是一个数字。
你会问为什么不干脆叫它们一个数字呢?
我不知道,也许数学家只是喜欢听起来酷?标量听起来确实比数字酷。
实际上,你可以使用一个数字的张量,我们称为0维张量,也就是一个只有0维的张量。它仅仅只是带有一个数字的水桶。想象水桶里只有一滴水,那就是一个0维张量。
本教程中,我将使用Python,Keras,TensorFlow和Python库Numpy。在Python中,张量通常存储在Nunpy数组,Numpy是在大部分的AI框架中,一个使用频率非常高的用于科学计算的数据包。
你将在Kaggle(数据科学竞赛网站)上经常看到Jupyter Notebooks(安装见文末阅读链接,“数学烂也要学AI:带你造一个经济试用版AI终极必杀器”)关于把数据转变成Numpy数组。Jupyter notebooks本质上是由工作代码标记嵌入。可以认为它把解释和程序融为一体。
我们为什么想把数据转换为Numpy数组?
很简单。因为我们需要把所有的输入数据,如字符串文本,图像,股票价格,或者视频,转变为一个统一得标准,以便能够容易的处理。
这样我们把数据转变成数字的水桶,我们就能用TensorFlow处理。
它仅仅是组织数据成为可用的格式。在网页程序中,你也许通过XML表示,所以你可以定义它们的特征并快速操作。同样,在深度学习中,我们使用张量水桶作为基本的乐高积木。
1维张量/向量
如果你是名程序员,那么你已经了解,类似于1维张量:数组。
每个编程语言都有数组,它只是单列或者单行的一组数据块。在深度学习中称为1维张量。张量是根据一共具有多少坐标轴来定义。1维张量只有一个坐标轴。
1维张量称为“向量”。
我们可以把向量视为一个单列或者单行的数字。
如果想在Numpy得出此结果,按照如下方法:
我们可以通过NumPy’s ndim函数,查看张量具有多个坐标轴。我们可以尝试1维张量。
你可能已经知道了另一种形式的张量,矩阵——2维张量称为矩阵
不,这不是基努·里维斯(Keanu Reeves)的电影《黑客帝国》,想象一个excel表格。
我们可以把它看作为一个带有行和列的数字网格。
这个行和列表示两个坐标轴,一个矩阵是二维张量,意思是有两维,也就是有两个坐标轴的张量。
在Numpy中,我们可以如下表示:
x = np.array([[5,10,15,30,25],
[20,30,65,70,90],
[7,80,95,20,30]])
我们可以把人的特征存储在一个二维张量。有一个典型的例子是邮件列表。
比如我们有10000人,我们有每个人的如下特性和特征:
First Name(名)
Last Name(姓)
Street Address(街道地址)
City(城市)
State(州/省)
Country(国家)
Zip(邮政编码)
这意味着我们有10000人的七个特征。
张量具有“形状”,它的形状是一个水桶,即装着我们的数据也定义了张量的最大尺寸。我们可以把所有人的数据放进二维张量中,它是(10000,7)。
你也许想说它有10000列,7行。
张量能够被转换和操作,从而使列变为行或者行变为列。
这时张量真正开始变得有用,我们经常需要把一系列的二维张量存储在水桶中,这就形成了3维张量。
在NumPy中,我们可以表示如下:
x = np.array([[[5,10,15,30,25], [20,30,65,70,90], [7,80,95,20,30]] [[3,0,5,0,45], [12,-2,6,7,90], [18,-9,95,120,30]] [[17,13,25,30,15], [23,36,9,7,80], [1,-7,-5,22,3]]])
你已经猜到,一个三维张量有三个坐标轴,可以这样看到:
让我们再看一下上面的邮件列表,现在我们有10个邮件列表,我们将存储2维张量在另一个水桶里,创建一个3维张量,它的形状如下:
(number_of_mailing_lists, number_of_people, number_of_characteristics_per_person)
(10,10000,7)
你也许已经猜到它,但是一个3维张量是一个数字构成的立方体。
我们可以继续堆叠立方体,创建一个越来越大的张量,来编辑不同类型的数据,也就是4维张量,5维张量等等,直到N维张量。N是数学家定义的未知数,它是一直持续到无穷集合里的附加单位。它可以是5,10或者无穷。
实际上,3维张量最好视为一层网格,看起来有点像下图:
存储在张量数据中的公式
这里有一些存储在各种类型张量的公用数据集类型:
3维=时间序列
几乎所有的这些张量的共同之处是样本量。样本量是集合中元素的数量,它可以是一些图像,一些视频,一些文件或者一些推特。
通常,真实的数据至少是一个数据量。
把形状里不同维数看作字段。我们找到一个字段的最小值来描述数据。
因此,即使4维张量通常存储图像,那是因为样本量占据张量的第4个字段。
例如,一个图像可以用三个字段表示:
(width, height, color_depth) = 3D
但是,在机器学习工作中,我们经常要处理不止一张图片或一篇文档——我们要处理一个集合。我们可能有10,000张郁金香的图片,这意味着,我们将用到4D张量,就像这样:
(sample_size, width, height, color_depth) = 4D
我们来看看一些多维张量存储模型的例子:
时间序列数据
用3D张量来模拟时间序列会非常有效!
医学扫描——我们可以将脑电波(EEG)信号编码成3D张量,因为它可以由这三个参数来描述:
(time, frequency, channel)
这种转化看起来就像这样:
如果我们有多个病人的脑电波扫描图,那就形成了一个4D张量:
(sample_size, time, frequency, channel)
Stock Prices
在交易中,股票每分钟有最高、最低和最终价格。如下图的蜡烛图所示:
纽交所开市时间从早上9:30到下午4:00,即6.5个小时,总共有6.5 x 60 = 390分钟。如此,我们可以将每分钟内最高、最低和最终的股价存入一个2D张量(390,3)。如果我们追踪一周(五天)的交易,我们将得到这么一个3D张量:
(week_of_data, minutes, high_low_price)
即:(5,390,3)
同理,如果我们观测10只不同的股票,观测一周,我们将得到一个4D张量(10,5,390,3)
假设我们在观测一个由25只股票组成的共同基金,其中的每只股票由我们的4D张量来表示。那么,这个共同基金可以有一个5D张量来表示:
(25,10,5,390,3)
我们也可以用3D张量来存储文本数据,我们来看看推特的例子。
首先,推特有140个字的限制。其次,推特使用UTF-8编码标准,这种编码标准能表示百万种字符,但实际上我们只对前128个字符感兴趣,因为他们与ASCII码相同。所以,一篇推特文可以包装成一个2D向量:
(140,128)
如果我们下载了一百万篇川普哥的推文(印象中他一周就能推这么多),我们就会用3D张量来存:
(number_of_tweets_captured, tweet, character)
这意味着,我们的川普推文集合看起来会是这样:
4D张量很适合用来存诸如JPEG这样的图片文件。之前我们提到过,一张图片有三个参数:高度、宽度和颜色深度。一张图片是3D张量,一个图片集则是4D,第四维是样本大小。
著名的MNIST数据集是一个手写的数字序列,作为一个图像识别问题,曾在几十年间困扰许多数据科学家。现在,计算机能以99%或更高的准确率解决这个问题。即便如此,这个数据集仍可以当做一个优秀的校验基准,用来测试新的机器学习算法应用,或是用来自己做实验。
Keras 甚至能用以下语句帮助我们自动导入MNIST数据集:
from keras.datasets import mnist(train_images, train_labels), (test_images, test_labels) = mnist.load_data()
这个数据集被分成两个部分:训练集和测试集。数据集中的每张图片都有一个标签。这个标签写有正确的读数,例如3,7或是9,这些标签都是通过人工判断并填写的。
训练集是用来训练神经网络学习算法,测试集则用来校验这个学习算法。
MNIST图片是黑白的,这意味着它们可以用2D张量来编码,但我们习惯于将所有的图片用3D张量来编码,多出来的第三个维度代表了图片的颜色深度。
MNIST数据集有60,000张图片,它们都是28 x 28像素,它们的颜色深度为1,即只有灰度。
TensorFlow这样存储图片数据:
(sample_size, height, width, color_depth).
于是我们可以认为,MNIST数据集的4D张量是这样的:
彩色图片有不同的颜色深度,这取决于它们的色彩(注:跟分辨率没有关系)编码。一张典型的JPG图片使用RGB编码,于是它的颜色深度为3,分别代表红、绿、蓝。
这是一张我美丽无边的猫咪(Dove)的照片,750 x750像素,这意味着我们能用一个3D张量来表示它:
(750,750,3)
My beautiful cat Dove (750 x 750 pixels)
这样,我可爱的Dove将被简化为一串冷冰冰的数字,就好像它变形或流动起来了。
然后,如果我们有一大堆不同类型的猫咪图片(虽然都没有Dove美),也许是100,000张吧,不是DOVE它的,750 x750像素的。我们可以在Keras中用4D张量来这样定义:
5D张量可以用来存储视频数据。TensorFlow中,视频数据将如此编码:
(sample_size, frames, width, height, color_depth)
如果我们考察一段5分钟(300秒),1080pHD(1920 x 1080像素),每秒15帧(总共4500帧),颜色深度为3的视频,我们可以用4D张量来存储它:
当我们有多段视频的时候,张量中的第五个维度将被使用。如果我们有10段这样的视频,我们将得到一个5D张量:
实际上这个例子太疯狂了!
这个张量的大是很荒谬的,超过1TB。我们姑且考虑下这个例子以便说明一个问题:在现实世界中,我们有时需要尽可能的缩小样本数据以方便的进行处理计算,除非你有无尽的时间。
这个5D张量中值的数量为:
10 x 4500 x 1920 x 1080 x 3 = 279,936,000,000
在Keras中,我们可以用一个叫dype的数据类型来存储32bits或64bits的浮点数
我们5D张量中的每一个值都将用32 bit来存储,现在,我们以TB为单位来进行转换:
279,936,000,000 x 32 = 8,957,952,000,000
这还只是保守估计,或许用32bit来储存根本就不够(谁来计算一下如果用64bit来存储会怎样),所以,减小你的样本吧朋友。
事实上,我举出这最后一个疯狂的例子是有特殊目的的。我们刚学过数据预处理和数据压缩。你不能什么工作也不做就把大堆数据扔向你的AI模型。你必须清洗和缩减那些数据让后续工作更简洁更高效。
降低分辨率,去掉不必要的数据(也就是去重处理),这大大缩减了帧数,等等这也是数据科学家的工作。如果你不能很好地对数据做这些预处理,那么你几乎做不了任何有意义的事。
好了,现在你已经对张量和用张量如何对接不同类型数据有了更好的了解。
下一篇“数学烂也要学AI”文章里,我们将学习如何在张量上做各种变换,这就是大家所熟知的数学。换句话说,我们将让张量“流动Flow起来”。
原文链接:/learning-ai-if-you-suck-at-math-p4-tensors-illustrated-with-cats-27f
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点&>&&>&&>&&>&tensorflow官方中文手册
tensorflow官方中文手册
上传大小:3.87MB
google推出的第二代机器学习框架,非常好用。官方中文手册。
嵌到我的页面
<input type="text" value="">
综合评分:0(0位用户评分)
所需积分:1
下载次数:32
审核通过送C币
创建者:qq_
创建者:qq_
创建者:zhuxunyuoyi
课程推荐相关知识库
上传者其他资源上传者专辑
开发技术热门标签
VIP会员动态
您因违反CSDN下载频道规则而被锁定帐户,如有疑问,请联络:!
android服务器底层网络模块的设计方法
所需积分:0
剩余积分:720
您当前C币:0
可兑换下载积分:0
兑换下载分:
兑换失败,您当前C币不够,请先充值C币
消耗C币:0
你当前的下载分为234。
tensorflow官方中文手册
会员到期时间:剩余下载次数:
你还不是VIP会员
开通VIP会员权限,免积分下载
你下载资源过于频繁,请输入验证码
您因违反CSDN下载频道规则而被锁定帐户,如有疑问,请联络:!
若举报审核通过,可奖励20下载分
被举报人:
举报的资源分:
请选择类型
资源无法下载
资源无法使用
标题与实际内容不符
含有危害国家安全内容
含有反动色情等内容
含广告内容
版权问题,侵犯个人或公司的版权
*详细原因:

我要回帖

更多关于 tensorflow 上不去 的文章

 

随机推荐