如何以python编写脚本文件的方式将文件备份到 Amazon S3

Amazon S3 允许用户邮寄硬盘以上传数据
最近,Amazon针对需要上传大量数据到Amazon S3的客户推出一项贴心服务:。 从本质上来说这项服务应该被称为&跑腿网络&,比如说,你可以,而不用通过网络上传数据。
为什么要这么做呢? 有时候可能你要上传的资料太多,通过互联网上传不太现实,更何况你的网速未必能承受大量数据上传。 同时也会浪费很多时间。 如果你向Amazon S3上传数据要花上一个星期或者更长时间,不如考虑一下邮寄方式。 下面是Amazon列出的一张表,表中列举了不同网络连接速度上传1TB文件所用的时间以及应该在什么情况下考虑AWS Import/Export服务。
以下是Amazon对AWS Import/Export服务的一些说明:
数据迁移&&如果这是你第一次将数据上传到AWS云服务,那么选择AWS Import/Export会比互联网传输快很多。
离站备份&&离站备份你的资料,并将资料副本发送给Amazon S3
直接数据交换&&如果你经常把信息存储在便携存储设备上,可以将这些信息直接发送到AWS,这样就可以把信息导入Amazon S3存储段了。
数据恢复&&如果你需要快速检索存储在Amazon S3中的大量备份数据,可以使用AWS Import/Export服务将数据转移到便携存储设备中,然后再传输到你的网站。
的CTO(首席技术官)Werner Vogels在一篇博客文章中详细解释了AWS Import/Export服务出现的原因。 这是篇不错的文章,你可以。 Werner Vogels指出,虽然网络发展越来越快,但我们的数据生成速度更快,因此这种服务是必要的。
这种方式听起来很落后,但我们不得不承认Werner Vogels的观点是对的。 在不久的将来互联网的传输速度会越来越快,但那时存储在&云&中的数据也会越来越多了。
AWS Import/Export服务目前仍然在测试阶段,服务范围也只限在美国,但不久会延伸到欧洲。 我想这会是Amazon的一大进步,让我们拭目以待&跑腿网络&型服务的表现吧。
* 版权声明:作者WordPress啦! 转载请注明出处。
点击哪里阅读啊??
Sorry啊,忘记写了,现在补上了。地址是:/2009/05/amazon_import_export.html
随机推荐文章Syncbackpro——安全免费、功能强大的文件同步备份工具_完美教程资讯Syncbackpro——安全免费、功能强大的文件同步备份工具目前互联网上的备份工具各种各样,用户完全可以根据自身的需求来进行选择,今天,小编再给大家安利一款功能强大的文件同步备份工具,就是syncbackpro了。是一款免费的及软件,可用于在硬盘、可重写光盘(含蓝光碟)、云备份服务器(支持亚马逊 S3,微软 Azure)、U盘和闪存卡、FTP及安全FTP服务器、ZIP压缩文件(支持 Zip64 压缩及 256 位 AES 加密)、服务器和文件夹之间同步文件。&程序使用(syncbackpro下载地址,/soft-977.html)非常简单,但为高级用户提供了大量的高级配置选项,甚至可在同步过程中执行脚本程序。syncbackpro是一款简单易用的文件备份,和同步工具,它可用于在硬盘、光盘、云备份服务器、U盘、FTP、zip压缩文件等之间进行同步操作支持备份、同步、三种模式支持多种媒介同步数据文件冲突规则设置高级设置界面SyncBackPro最新版本功能支持Amazon S3,Google Storage和Microsoft Azure你可以通过服务同步备份你的文件。Amazon S3可以提供一个简单的Web服务接口,任何时候从任何地点,只要在网络上就能用来存储检索任意数量的数据。Google Storage是在Google的基础设施上架设的数据存储访问服务,此服务结合了谷歌云技术的先进安全共享功能。Azure是微软的云解决方案,可以提供类似于Amazon S3的功能。支持POP3/IMAP4服务器上进行电子邮件存储备份通过两种方式,用户可以访问其电子邮件。POP3(Post Office Protocol 3)为邮件传递到你的计算机邮箱中,然后由用户负责其标准。IMAP(Interactive Mail Access Protocol)是一种新方法。IMAP将邮件传递到服务器中,然后由用户连接服务器进行邮件访问。邮件不存储在你的机器上。当邮件被标注只读,所有修改都在服务器上完成。集成SyncBack管理服务现在可使用集成的SyncBackPro进行管理检测。SBM Console(测试中)采用SyncBackPro和SyncBack管理服务。这三个应用共同作用,对整个网络进行同步备份管理。相关文章热门文章< 版权所有 京ICP备号>> 一个命令行脚本文件上传到Amazon S3
一个命令行脚本文件上传到Amazon S3
所属分类:
下载地址:
s3afe.py文件大小:3.55 kB
分享有礼! 》
请点击右侧的分享按钮,把本代码分享到各社交媒体。
通过您的分享链接访问Codeforge,每来2个新的IP,您将获得0.1 积分的奖励。
通过您的分享链接,每成功注册一个用户,该用户在Codeforge上所获得的每1个积分,您都将获得0.2 积分的分成奖励。
A command line Python script to upload a single file to a bucket on Amazon S3 (using the boto library).
Command Line Options
show program s version number and exit
-h, --help
show this help message and exit
-k AWSKEY, --aws_access_key_id=AWSKEY
-s AWSSECRET, --aws_secret_access_key=AWSSECRET
-f FILENAME, --filename=FILENAME
-b BUCKETNAME, --bucketname=BUCKETNAME
-n KEYNAME, --keyname=KEYNAME
-a ACL, --acl=ACL
The following command uploads the file ~/backups/latest.tgz to the S3 bucket called 'backupbucket' using the name '.tgz'. The backup should be private.
python s3afe.py -f '~/backups/latest.tgz' -n '.tgz' -b 'backupbucket' -a 'private' -k 'HONIKLQSJREDBCFTAGMP' -s 'och4od9cub4byms8iv7nun7fid1had3cyind5of2'
In case you set the environment variables AWS_ACCESS_KEY_ID and AWS_SECRET_ACCESS_KEY, s3afe takes those and the command is a bit shorter:
python s3afe.py -f '~/backups/latest.tgz' -n '.tgz' -b 'backupbucket' -a 'private'
To prevent exposing your private data by mistake, the ACL 'private' is default. This shortens the command to:
python s3afe.py -f '~/backups/latest.tgz' -n '.tgz' -b 'backupbucket'
ACL-Options
private (default)
public-read
public-read-write
authenticated-read
Requirements
(try 'sudo easy_install boto')
Sponsored links
源码文件列表
温馨提示: 点击源码文件名可预览文件内容哦 ^_^
(提交有效评论获得积分)
评论内容不能少于15个字,不要超出160个字。
评价成功,多谢!
下载s3afe.py
CodeForge积分(原CF币)全新升级,功能更强大,使用更便捷,不仅可以用来下载海量源代码马上还可兑换精美小礼品了
您的积分不足,优惠套餐快速获取 30 积分
10积分 / ¥100
30积分 / ¥200原价 ¥300 元
100积分 / ¥500原价 ¥1000 元
订单支付完成后,积分将自动加入到您的账号。以下是优惠期的人民币价格,优惠期过后将恢复美元价格。
支付宝支付宝付款
微信钱包微信付款
更多付款方式:、
您本次下载所消耗的积分将转交上传作者。
同一源码,30天内重复下载,只扣除一次积分。
鲁ICP备号-3 runtime:Elapsed:250.909ms - init:0.1;find:0.7;t:0.5;tags:0.3;related:106.3;comment:0.3; 27.69
登录 CodeForge
还没有CodeForge账号?
Switch to the English version?
^_^"呃 ...
Sorry!这位大神很神秘,未开通博客呢,请浏览一下其他的吧在 Amazon S3 上托管静态网站 - Amazon Simple Storage Service
>> 在 Amazon S3 上托管静态网站
AWS 服务或AWS文档中描述的功能,可能因地区/位置而异。请点击 。
在 Amazon S3 上托管静态网站
您可以在 Amazon Simple Storage Service (Amazon S3) 上托管静态网站。在静态网站上,单独的网页包含静态内容。它们也可能包含客户端脚本。通过对比得知,动态网站依赖服务器端处理,包括诸如
PHP、JSP 或 ASP.NET 的服务器端脚本。Amazon S3 不支持服务器端脚本编写。Amazon Web Services (AWS) 还提供用于托管动态网站的资源。要了解有关
AWS 上的网站托管的更多信息,请转到。
要托管静态网站,您需要为网站托管配置 Amazon S3 存储桶,然后将网站内容上传到存储桶。随后即可在存储桶的 AWS 区域特定的网站终端节点上使用该网站:&bucket-name&.s3-website-&AWS-region&.有关 Amazon S3 的 AWS 区域特定的网站终端节点列表,请参阅。例如,假设您在 美国西部(俄勒冈)区域 创建了名为 examplebucket 的存储桶,并将其配置为网站。 以下示例 URL 将提供对您的网站内容的访问:
此 URL 将返回您为该网站配置的默认索引文档。
http://examplebucket.s3-website-us-west-/
此 URL 将请求 photo.jpg 对象,该对象存储在存储桶的根级。
http://examplebucket.s3-website-us-east-/photo.jpg
此 URL 将请求存储桶中的 docs/doc1.html 对象。
http://examplebucket.s3-website-us-east-/docs/doc1.html
使用您自己的域
您可以使用自己的域 (例如 ) 提供内容,而不是通过使用 Amazon S3 网站终端节点来访问网站。Amazon S3 与 Amazon Route 53 相结合,支持在根域中托管网站。例如,如果您有根域
,并在 Amazon S3 上托管网站,则您的网站访问者可以通过键入
从他们的浏览器访问该站点。有关示例演练的信息,请参阅 。
要为网站托管配置存储桶,需将网站配置添加到该存储桶。有关更多信息,请参阅 。
Javascript is disabled or is unavailable in your browser. To use the AWS Documentation, Javascript must be enabled. Please refer to your browser's
Help pages for instructions.

我要回帖

更多关于 python编写脚本文件 的文章

 

随机推荐