来源:蜘蛛抓取(WebSpider)
时间:2017-08-11 09:51
标签:
python编写脚本文件
Amazon S3 允许用户邮寄硬盘以上传数据
最近,Amazon针对需要上传大量数据到Amazon S3的客户推出一项贴心服务:。 从本质上来说这项服务应该被称为&跑腿网络&,比如说,你可以,而不用通过网络上传数据。
为什么要这么做呢? 有时候可能你要上传的资料太多,通过互联网上传不太现实,更何况你的网速未必能承受大量数据上传。 同时也会浪费很多时间。 如果你向Amazon S3上传数据要花上一个星期或者更长时间,不如考虑一下邮寄方式。 下面是Amazon列出的一张表,表中列举了不同网络连接速度上传1TB文件所用的时间以及应该在什么情况下考虑AWS Import/Export服务。
以下是Amazon对AWS Import/Export服务的一些说明:
数据迁移&&如果这是你第一次将数据上传到AWS云服务,那么选择AWS Import/Export会比互联网传输快很多。
离站备份&&离站备份你的资料,并将资料副本发送给Amazon S3
直接数据交换&&如果你经常把信息存储在便携存储设备上,可以将这些信息直接发送到AWS,这样就可以把信息导入Amazon S3存储段了。
数据恢复&&如果你需要快速检索存储在Amazon S3中的大量备份数据,可以使用AWS Import/Export服务将数据转移到便携存储设备中,然后再传输到你的网站。
的CTO(首席技术官)Werner Vogels在一篇博客文章中详细解释了AWS Import/Export服务出现的原因。 这是篇不错的文章,你可以。 Werner Vogels指出,虽然网络发展越来越快,但我们的数据生成速度更快,因此这种服务是必要的。
这种方式听起来很落后,但我们不得不承认Werner Vogels的观点是对的。 在不久的将来互联网的传输速度会越来越快,但那时存储在&云&中的数据也会越来越多了。
AWS Import/Export服务目前仍然在测试阶段,服务范围也只限在美国,但不久会延伸到欧洲。 我想这会是Amazon的一大进步,让我们拭目以待&跑腿网络&型服务的表现吧。
* 版权声明:作者WordPress啦! 转载请注明出处。
点击哪里阅读啊??
Sorry啊,忘记写了,现在补上了。地址是:/2009/05/amazon_import_export.html
随机推荐文章Syncbackpro——安全免费、功能强大的文件同步备份工具_完美教程资讯Syncbackpro——安全免费、功能强大的文件同步备份工具目前互联网上的备份工具各种各样,用户完全可以根据自身的需求来进行选择,今天,小编再给大家安利一款功能强大的文件同步备份工具,就是syncbackpro了。是一款免费的及软件,可用于在硬盘、可重写光盘(含蓝光碟)、云备份服务器(支持亚马逊 S3,微软 Azure)、U盘和闪存卡、FTP及安全FTP服务器、ZIP压缩文件(支持 Zip64 压缩及 256 位 AES 加密)、服务器和文件夹之间同步文件。&程序使用(syncbackpro下载地址,/soft-977.html)非常简单,但为高级用户提供了大量的高级配置选项,甚至可在同步过程中执行脚本程序。syncbackpro是一款简单易用的文件备份,和同步工具,它可用于在硬盘、光盘、云备份服务器、U盘、FTP、zip压缩文件等之间进行同步操作支持备份、同步、三种模式支持多种媒介同步数据文件冲突规则设置高级设置界面SyncBackPro最新版本功能支持Amazon S3,Google Storage和Microsoft Azure你可以通过服务同步备份你的文件。Amazon S3可以提供一个简单的Web服务接口,任何时候从任何地点,只要在网络上就能用来存储检索任意数量的数据。Google Storage是在Google的基础设施上架设的数据存储访问服务,此服务结合了谷歌云技术的先进安全共享功能。Azure是微软的云解决方案,可以提供类似于Amazon S3的功能。支持POP3/IMAP4服务器上进行电子邮件存储备份通过两种方式,用户可以访问其电子邮件。POP3(Post Office Protocol 3)为邮件传递到你的计算机邮箱中,然后由用户负责其标准。IMAP(Interactive Mail Access Protocol)是一种新方法。IMAP将邮件传递到服务器中,然后由用户连接服务器进行邮件访问。邮件不存储在你的机器上。当邮件被标注只读,所有修改都在服务器上完成。集成SyncBack管理服务现在可使用集成的SyncBackPro进行管理检测。SBM Console(测试中)采用SyncBackPro和SyncBack管理服务。这三个应用共同作用,对整个网络进行同步备份管理。相关文章热门文章< 版权所有 京ICP备号>> 一个命令行脚本文件上传到Amazon S3
一个命令行脚本文件上传到Amazon S3
所属分类:
下载地址:
s3afe.py文件大小:3.55 kB
分享有礼! 》
请点击右侧的分享按钮,把本代码分享到各社交媒体。
通过您的分享链接访问Codeforge,每来2个新的IP,您将获得0.1 积分的奖励。
通过您的分享链接,每成功注册一个用户,该用户在Codeforge上所获得的每1个积分,您都将获得0.2 积分的分成奖励。
A command line Python script to upload a single file to a bucket on Amazon S3 (using the boto library).
Command Line Options
show program s version number and exit
-h, --help
show this help message and exit
-k AWSKEY, --aws_access_key_id=AWSKEY
-s AWSSECRET, --aws_secret_access_key=AWSSECRET
-f FILENAME, --filename=FILENAME
-b BUCKETNAME, --bucketname=BUCKETNAME
-n KEYNAME, --keyname=KEYNAME
-a ACL, --acl=ACL
The following command uploads the file ~/backups/latest.tgz to the S3 bucket called 'backupbucket' using the name '.tgz'. The backup should be private.
python s3afe.py -f '~/backups/latest.tgz' -n '.tgz' -b 'backupbucket' -a 'private' -k 'HONIKLQSJREDBCFTAGMP' -s 'och4od9cub4byms8iv7nun7fid1had3cyind5of2'
In case you set the environment variables AWS_ACCESS_KEY_ID and AWS_SECRET_ACCESS_KEY, s3afe takes those and the command is a bit shorter:
python s3afe.py -f '~/backups/latest.tgz' -n '.tgz' -b 'backupbucket' -a 'private'
To prevent exposing your private data by mistake, the ACL 'private' is default. This shortens the command to:
python s3afe.py -f '~/backups/latest.tgz' -n '.tgz' -b 'backupbucket'
ACL-Options
private (default)
public-read
public-read-write
authenticated-read
Requirements
(try 'sudo easy_install boto')
Sponsored links
源码文件列表
温馨提示: 点击源码文件名可预览文件内容哦 ^_^
(提交有效评论获得积分)
评论内容不能少于15个字,不要超出160个字。
评价成功,多谢!
下载s3afe.py
CodeForge积分(原CF币)全新升级,功能更强大,使用更便捷,不仅可以用来下载海量源代码马上还可兑换精美小礼品了
您的积分不足,优惠套餐快速获取 30 积分
10积分 / ¥100
30积分 / ¥200原价 ¥300 元
100积分 / ¥500原价 ¥1000 元
订单支付完成后,积分将自动加入到您的账号。以下是优惠期的人民币价格,优惠期过后将恢复美元价格。
支付宝支付宝付款
微信钱包微信付款
更多付款方式:、
您本次下载所消耗的积分将转交上传作者。
同一源码,30天内重复下载,只扣除一次积分。
鲁ICP备号-3 runtime:Elapsed:250.909ms - init:0.1;find:0.7;t:0.5;tags:0.3;related:106.3;comment:0.3; 27.69
登录 CodeForge
还没有CodeForge账号?
Switch to the English version?
^_^"呃 ...
Sorry!这位大神很神秘,未开通博客呢,请浏览一下其他的吧在 Amazon S3 上托管静态网站 - Amazon Simple Storage Service
>> 在 Amazon S3 上托管静态网站
AWS 服务或AWS文档中描述的功能,可能因地区/位置而异。请点击 。
在 Amazon S3 上托管静态网站
您可以在 Amazon Simple Storage Service (Amazon S3) 上托管静态网站。在静态网站上,单独的网页包含静态内容。它们也可能包含客户端脚本。通过对比得知,动态网站依赖服务器端处理,包括诸如
PHP、JSP 或 ASP.NET 的服务器端脚本。Amazon S3 不支持服务器端脚本编写。Amazon Web Services (AWS) 还提供用于托管动态网站的资源。要了解有关
AWS 上的网站托管的更多信息,请转到。
要托管静态网站,您需要为网站托管配置 Amazon S3 存储桶,然后将网站内容上传到存储桶。随后即可在存储桶的 AWS 区域特定的网站终端节点上使用该网站:&bucket-name&.s3-website-&AWS-region&.有关 Amazon S3 的 AWS 区域特定的网站终端节点列表,请参阅。例如,假设您在 美国西部(俄勒冈)区域 创建了名为 examplebucket 的存储桶,并将其配置为网站。 以下示例 URL 将提供对您的网站内容的访问:
此 URL 将返回您为该网站配置的默认索引文档。
http://examplebucket.s3-website-us-west-/
此 URL 将请求 photo.jpg 对象,该对象存储在存储桶的根级。
http://examplebucket.s3-website-us-east-/photo.jpg
此 URL 将请求存储桶中的 docs/doc1.html 对象。
http://examplebucket.s3-website-us-east-/docs/doc1.html
使用您自己的域
您可以使用自己的域 (例如 ) 提供内容,而不是通过使用 Amazon S3 网站终端节点来访问网站。Amazon S3 与 Amazon Route 53 相结合,支持在根域中托管网站。例如,如果您有根域
,并在 Amazon S3 上托管网站,则您的网站访问者可以通过键入
从他们的浏览器访问该站点。有关示例演练的信息,请参阅 。
要为网站托管配置存储桶,需将网站配置添加到该存储桶。有关更多信息,请参阅 。
Javascript is disabled or is unavailable in your browser. To use the AWS Documentation, Javascript must be enabled. Please refer to your browser's
Help pages for instructions.