linux curl wget中使用curl或者wget怎么下载网页中的图片?

新手园地& & & 硬件问题Linux系统管理Linux网络问题Linux环境编程Linux桌面系统国产LinuxBSD& & & BSD文档中心AIX& & & 新手入门& & & AIX文档中心& & & 资源下载& & & Power高级应用& & & IBM存储AS400Solaris& & & Solaris文档中心HP-UX& & & HP文档中心SCO UNIX& & & SCO文档中心互操作专区IRIXTru64 UNIXMac OS X门户网站运维集群和高可用服务器应用监控和防护虚拟化技术架构设计行业应用和管理服务器及硬件技术& & & 服务器资源下载云计算& & & 云计算文档中心& & & 云计算业界& & & 云计算资源下载存储备份& & & 存储文档中心& & & 存储业界& & & 存储资源下载& & & Symantec技术交流区安全技术网络技术& & & 网络技术文档中心C/C++& & & GUI编程& & & Functional编程内核源码& & & 内核问题移动开发& & & 移动开发技术资料ShellPerlJava& & & Java文档中心PHP& & & php文档中心Python& & & Python文档中心RubyCPU与编译器嵌入式开发驱动开发Web开发VoIP开发技术MySQL& & & MySQL文档中心SybaseOraclePostgreSQLDB2Informix数据仓库与数据挖掘NoSQL技术IT业界新闻与评论IT职业生涯& & & 猎头招聘IT图书与评论& & & CU技术图书大系& & & Linux书友会二手交易下载共享Linux文档专区IT培训与认证& & & 培训交流& & & 认证培训清茶斋投资理财运动地带快乐数码摄影& & & 摄影器材& & & 摄影比赛专区IT爱车族旅游天下站务交流版主会议室博客SNS站务交流区CU活动专区& & & Power活动专区& & & 拍卖交流区频道交流区
空间积分0 信誉积分0 UID阅读权限10积分166帖子精华可用积分166 专家积分0 在线时间22 小时注册时间最后登录
白手起家, 积分 166, 距离下一级还需 34 积分
帖子主题精华可用积分166 专家积分0 在线时间22 小时注册时间最后登录
论坛徽章:0
比如这个链接
浏览器可以
用wget/curl不行
[ 本帖最后由 fengshasha 于
06:49 编辑 ]
&&nbsp|&&nbsp&&nbsp|&&nbsp&&nbsp|&&nbsp&&nbsp|&&nbsp
空间积分809 信誉积分140 UID8019015阅读权限50积分2006帖子精华可用积分2007 专家积分70 在线时间1501 小时注册时间最后登录
小富即安, 积分 2006, 距离下一级还需 2994 积分
帖子主题精华可用积分2007 专家积分70 在线时间1501 小时注册时间最后登录
论坛徽章:0
你给的地址不对,打不开
long time no see ~
空间积分0 信誉积分0 UID阅读权限10积分166帖子精华可用积分166 专家积分0 在线时间22 小时注册时间最后登录
白手起家, 积分 166, 距离下一级还需 34 积分
帖子主题精华可用积分166 专家积分0 在线时间22 小时注册时间最后登录
论坛徽章:0
可以打开了
空间积分4 信誉积分2 UID9541167阅读权限90积分17022帖子精华可用积分17022 专家积分60 在线时间2323 小时注册时间最后登录
大富大贵, 积分 17022, 距离下一级还需 2978 积分
帖子主题精华可用积分17022 专家积分60 在线时间2323 小时注册时间最后登录
论坛徽章:0
你给的地址好像不是直接的,
ttp://blog..cn/showpic.html#url=http://static16..cn/orignal/914cbf2c5bf
为什么后面还有个#url=?那位高手懂这个?
[ 本帖最后由 haimming 于
09:01 编辑 ]
空间积分1 信誉积分2259 UID8213186阅读权限90积分13821帖子精华可用积分13823 专家积分369 在线时间8182 小时注册时间最后登录
大富大贵, 积分 13821, 距离下一级还需 6179 积分
帖子主题精华可用积分13823 专家积分369 在线时间8182 小时注册时间最后登录
论坛徽章:0
回复 #1 fengshasha 的帖子
可以下载的。
LIVE FREE OR DIE!& &&&K.I.S.S.&&DRY
远离& && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && &&&shell
空间积分0 信誉积分746 UID阅读权限90积分8385帖子精华可用积分8385 专家积分25 在线时间3769 小时注册时间最后登录
腰缠万贯, 积分 8385, 距离下一级还需 1615 积分
帖子主题精华可用积分8385 专家积分25 在线时间3769 小时注册时间最后登录
论坛徽章:0
浏览器可以,wget肯定可以的,如果有问题,可能是你搞错了!
---招linux运维和数据库运维,需本科学历,有想来腾讯工作的朋友可以将简历邮件给
空间积分4 信誉积分2 UID9541167阅读权限90积分17022帖子精华可用积分17022 专家积分60 在线时间2323 小时注册时间最后登录
大富大贵, 积分 17022, 距离下一级还需 2978 积分
帖子主题精华可用积分17022 专家积分60 在线时间2323 小时注册时间最后登录
论坛徽章:0
回复 #5 blackold 的帖子
[rockfall@localhost ~]$ wget [url]http://blog..cn/showpic.html#url=http://static16..cn/orignal/914cbf2c5bf[/url]
-- 09:20:48--&&[url]http://blog..cn/showpic.html[/url]
Resolving blog..cn... 218.30.115.253
Connecting to blog..cn|218.30.115.253|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: K) [text/html]
Saving to: `showpic.html.3'
100%[===============================&] 1,542& && & --.-K/s& &in 0s& && &
09:20:48 (4.35 MB/s) - `showpic.html.3' saved []复制代码
这样下下来的只有1.5k,加了些其它参数也试过,都是原码。
请黑哥和LS的给条命令
空间积分1 信誉积分2259 UID8213186阅读权限90积分13821帖子精华可用积分13823 专家积分369 在线时间8182 小时注册时间最后登录
大富大贵, 积分 13821, 距离下一级还需 6179 积分
帖子主题精华可用积分13823 专家积分369 在线时间8182 小时注册时间最后登录
论坛徽章:0
回复 #7 haimming 的帖子
里面使用了javascript对url进行分析,然后转向特定的链接(图片)。
LIVE FREE OR DIE!& &&&K.I.S.S.&&DRY
远离& && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && && &&&shell
空间积分4 信誉积分2 UID9541167阅读权限90积分17022帖子精华可用积分17022 专家积分60 在线时间2323 小时注册时间最后登录
大富大贵, 积分 17022, 距离下一级还需 2978 积分
帖子主题精华可用积分17022 专家积分60 在线时间2323 小时注册时间最后登录
论坛徽章:0
回复 #8 blackold 的帖子
嗯....So,wget能不能下载?如何?
空间积分4 信誉积分2 UID9541167阅读权限90积分17022帖子精华可用积分17022 专家积分60 在线时间2323 小时注册时间最后登录
大富大贵, 积分 17022, 距离下一级还需 2978 积分
帖子主题精华可用积分17022 专家积分60 在线时间2323 小时注册时间最后登录
论坛徽章:0
我也想知道,帮你顶上去!
北京皓辰网域网络信息技术有限公司. 版权所有 京ICP证:060528号 北京市公安局海淀分局网监中心备案编号:
广播电视节目制作经营许可证(京) 字第1234号
中国互联网协会会员&&联系我们:
感谢所有关心和支持过ChinaUnix的朋友们
转载本站内容请注明原作者名及出处wget命令,linux Wget命令来浏览网页的方法
阅读:355次&&&时间: 11:19:24&&
点评:用adsl上网:
rpm -e rp-pppoe-3.2-3 先删除旧版的程序
rpm -ivh rp-pppoe-3.3-1.i386.rpm 安装最新版本
安装完后执行adsl-setup命令,然后输入帐号,密码等。当要上网时执行adsl-start即可拨号上网,若要断线则执行adsl-stop命令,如果想查看连接状态可用adsl-status
用adsl上网: rpm -e rp-pppoe-3.2-3 先删除旧版的程序 rpm -ivh rp-pppoe-3.3-1.i386.rpm 安装最新版本 安装完后执行adsl-setup命令,然后输入帐号,密码等。当要上网时执行adsl-start即可拨号上网,若要断线则执行adsl-stop命令,如果想查看连接状态可用adsl-status命令。 文本下可以用lynx,links浏览web.上传/下载软件可以用lftp,wget,curl等工具,在文本命令行下的网网络工具就更多了。 具体的命令参数以及使用可以man命令查看。
[商业源码]&
[商业源码]&
[商业源码]&
[商业源码]&
[商业源码]&
[商业源码]&
[商业源码]&
[商业源码]&
[商业源码]&
[商业源码]&
Copyright &
All Rights Reservedlinux curl,wget 如何关闭重试机制_百度知道
linux curl,wget 如何关闭重试机制
麻烦解救下,会自动重试一下有实战过的大侠么,发现这个接口在超时以后如题、重试次数什么的了,我都试着去加大时间。不要贴百度能搜到的信息;curl在crontab自动调用看了下后台nginx日志,用wget&#47,我的程序在后台会跑比较长的时间
提问者采纳
然后给你一个返回说明,curl和wget都会结束,会自动重连,不论是超时或者是文件不存在,curl和wget是不会有你说的自动再连的? 如果是这个意思的话,如果超时,你是说curl和wget命令测试你的站点没太明白的你的意思
就是这个意思,超时了就自动重连看nginx日志里面,隔了30秒钟,它就自动触发了一下,也不知道这是wget还是nginx自带的功能
你说的是request里的get,这个连接重试应该是你有应用在没有等到响应后再次重试引起。你先搞清楚谁需要访问ajax_exportAll
找到问题了,是我们这边nginx被人改动过了,需要升级下。多谢热心帮助!!
提问者评价
多谢帮忙!
其他类似问题
wget的相关知识
等待您来回答
下载知道APP
随时随地咨询
出门在外也不愁linux常用下载工具wget myget curl
我常用的三个下载工具 一、WgetWget是一个十分常用命令行下载工具,多数Linux发行版本都默认包含这个工具。如果没有安装可在http://www.gnu.org/software/wget/wget
linux常用下载工具wget myget curl 由Linux系统中文网()编辑收集整理,除Linux521注明原创文章外,其版权归原作者所有。如果您在学习中遇到问题欢迎在下面的评论中留言,我们会尽全力解答您的问题。
我常用的三个下载工具
Wget是一个十分常用命令行下载工具,多数Linux发行版本都默认包含这个工具.如果没有安装可在http://www.gnu.org/software/wget/wget.html下载最新版本,并使用如下命令编译安装:
#tar zxvf wget-1.9.1.tar.gz
#cd wget-1.9.1 #./configure
#make #make install它的用法很简单,Wget使用格式如下: #wget [选项] [下载地址]
1.Wget常用参数
◆-b:后台下载,Wget默认的是把文件下载到当前目录.
◆-O:将文件下载到指定的目录中.
◆-P:保存文件之前先创建指定名称的目录.
◆-t:尝试连接次数,当Wget无法与服务器建立连接时,尝试连接多少次.
◆-c:断点续传,如果下载中断,那么连接恢复时会从上次断点开始下载.
除了上述常用功能,Wget还支持HTTP和FTP代理功能,编辑其配置文件“/etc/wgetrc”即可.具体方法是使用VI编辑器打开上述文件,将 “http_proxy”和“ftp_proxoy”前的#去掉,然后在这两项后输入相应的代理服务器的地址,保存退出即可.此外,Wget还可下载整个网站,如下载http://man.chinaunix.net整个Man手册中心.只需输入如下命令即可: #wget -r -p -np -k http://man.chinaunix.net 其中-r参数是指使用递归下载,-p是指下载所有显示完整网页需要的文件,如图片等,-np是指不搜索上层目录,-k则是指将绝对链接转换为相对链接.
MyGet目标设计成一个可扩展的,拥有丰富界面的多线程下载工具,它支持HTTP、FTP、HTTPS、MMS、RTSP等协议.在http://myget.sourceforge.net/release/myget-0.1.0.tar.bz2下载其最新版本0.1.0,下载后使用如下命令安装:
Empire CMS,phome.net
《Linux系统中文网》欢迎原创作者投稿,请先注册成为会员,然后在后台 相应的栏目里提交你的文章,注意填写好相关信息点“保存”。我们将在24小时之内审核完毕。
请务必尊重网上道德,遵守中华人民共和国的各项法律法规,承担一切因您的行为而直接或间接导致的法律责任。本站管理人员有权删除留言中的任意内容。
Copyright& Inc. All rights reserved. 京ICP备号

我要回帖

更多关于 wget curl 的文章

 

随机推荐