Python 有读取360浏览器截图快捷键网页的快捷键吗

8被浏览253分享邀请回答0添加评论分享收藏感谢收起01 条评论分享收藏感谢收起写回答温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!&&|&&
LOFTER精选
网易考拉推荐
用微信&&“扫一扫”
将文章分享到朋友圈。
用易信&&“扫一扫”
将文章分享到朋友圈。
webbrowser.open()方法:
webbrowser.open(url, new=0, autoraise=True) 在系统的默认浏览器中访问url地址,如果new=0, url会在同一个浏览器窗口中打开;如果new=1,新的浏览器窗口会被打开;new=2& 新的浏览器tab会被打开。
webbrowser.get()方法:可以获取到系统浏览器的操作对象。
webbrowser.register()方法:可以注册浏览器类型,而允许被注册的类型名称如下:
&&& Type Name Class Name Notes &&& 'mozilla' Mozilla('mozilla')&& &&& 'firefox' Mozilla('mozilla')&& &&& 'netscape' Mozilla('netscape')&& &&& 'galeon' Galeon('galeon')&& &&& 'epiphany' Galeon('epiphany')&& &&& 'skipstone' BackgroundBrowser('skipstone')&& &&& 'kfmclient' Konqueror() (1) &&& 'konqueror' Konqueror() (1) &&& 'kfm' Konqueror() (1) &&& 'mosaic' BackgroundBrowser('mosaic')&& &&& 'opera' Opera()&& &&& 'grail' Grail()&& &&& 'links' GenericBrowser('links')&& &&& 'elinks' Elinks('elinks')&& &&& 'lynx' GenericBrowser('lynx')&& &&& 'w3m' GenericBrowser('w3m')&& &&& 'windows-default' WindowsDefault (2) &&& 'macosx' MacOSX('default') (3) &&& 'safari' MacOSX('safari') (3) &&& 'google-chrome' Chrome('google-chrome')&& &&& 'chrome' Chrome('chrome')&& &&& 'chromium' Chromium('chromium')&& &&& 'chromium-browser' Chromium('chromium-browser')
#-*- coding:UTF-8 -*-import sysimport webbrowsersys.path.append("libs")&url = ''webbrowser.open(url)print webbrowser.get()
阅读(4998)|
用微信&&“扫一扫”
将文章分享到朋友圈。
用易信&&“扫一扫”
将文章分享到朋友圈。
历史上的今天
在LOFTER的更多文章
loftPermalink:'',
id:'fks_',
blogTitle:'python 打开浏览器的两种方式',
blogAbstract:' \r\npython 打开浏览器方法一:\r\nimport os\r\nos.system(\'\"C:/Program Files/Internet Explorer/iexplore.exe\"
{if x.moveFrom=='wap'}
{elseif x.moveFrom=='iphone'}
{elseif x.moveFrom=='android'}
{elseif x.moveFrom=='mobile'}
${a.selfIntro|escape}{if great260}${suplement}{/if}
{list a as x}
推荐过这篇日志的人:
{list a as x}
{if !!b&&b.length>0}
他们还推荐了:
{list b as y}
转载记录:
{list d as x}
{list a as x}
{list a as x}
{list a as x}
{list a as x}
{if x_index>4}{break}{/if}
${fn2(x.publishTime,'yyyy-MM-dd HH:mm:ss')}
{list a as x}
{if !!(blogDetail.preBlogPermalink)}
{if !!(blogDetail.nextBlogPermalink)}
{list a as x}
{if defined('newslist')&&newslist.length>0}
{list newslist as x}
{if x_index>7}{break}{/if}
{list a as x}
{var first_option =}
{list x.voteDetailList as voteToOption}
{if voteToOption==1}
{if first_option==false},{/if}&&“${b[voteToOption_index]}”&&
{if (x.role!="-1") },“我是${c[x.role]}”&&{/if}
&&&&&&&&${fn1(x.voteTime)}
{if x.userName==''}{/if}
网易公司版权所有&&
{list x.l as y}
{if defined('wl')}
{list wl as x}{/list}&>&python获取网页源码,经过伪装,自动判断网页压缩与否
python获取网页源码,经过伪装,自动判断网页压缩与否
上传大小:530B
相对来说简单可靠的方式获取网页源码,经过浏览器伪装,可采集压缩和未压缩的网页。
综合评分:0(0位用户评分)
下载个数:
{%username%}回复{%com_username%}{%time%}\
/*点击出现回复框*/
$(".respond_btn").on("click", function (e) {
$(this).parents(".rightLi").children(".respond_box").show();
e.stopPropagation();
$(".cancel_res").on("click", function (e) {
$(this).parents(".res_b").siblings(".res_area").val("");
$(this).parents(".respond_box").hide();
e.stopPropagation();
/*删除评论*/
$(".del_comment_c").on("click", function (e) {
var id = $(e.target).attr("id");
$.getJSON('/index.php/comment/do_invalid/' + id,
function (data) {
if (data.succ == 1) {
$(e.target).parents(".conLi").remove();
alert(data.msg);
$(".res_btn").click(function (e) {
var q = $("#form1").serializeArray();
console.log(q);
var res_area_r = $.trim($(".res_area_r").val());
if (res_area_r == '') {
$(".res_text").css({color: "red"});
$.post("/index.php/comment/do_comment_reply/", q,
function (data) {
if (data.succ == 1) {
var $target,
evt = e || window.
$target = $(evt.target || evt.srcElement);
var $dd = $target.parents('dd');
var $wrapReply = $dd.find('.respond_box');
console.log($wrapReply);
var mess = $(".res_area_r").val();
var str = str.replace(/{%header%}/g, data.header)
.replace(/{%href%}/g, 'http://' + window.location.host + '/user/' + data.username)
.replace(/{%username%}/g, data.username)
.replace(/{%com_username%}/g, _username)
.replace(/{%time%}/g, data.time)
.replace(/{%id%}/g, data.id)
.replace(/{%mess%}/g, mess);
$dd.after(str);
$(".respond_box").hide();
$(".res_area_r").val("");
$(".res_area").val("");
$wrapReply.hide();
alert(data.msg);
}, "json");
/*删除回复*/
$(".rightLi").on("click",'.del_comment_r', function (e) {
var id = $(e.target).attr("id");
$.getJSON('/index.php/comment/do_comment_del/' + id,
function (data) {
if (data.succ == 1) {
$(e.target).parent().parent().parent().parent().parent().remove();
$(e.target).parents('.res_list').remove()
alert(data.msg);
//填充回复
function KeyP(v) {
$(".res_area_r").val($.trim($(".res_area").val()));
评论共有0条
审核通过送C币
《Python源码剖析》
创建者:weixin_
Python视频教程
创建者:love
创建者:qq_
上传者其他资源上传者专辑
delphi操作MYSQL数据库(嵌入版)例子
delphi操作excel模块,图片,表格,读写删除
开发技术热门标签
VIP会员动态
CSDN下载频道资源及相关规则调整公告V11.10
下载频道用户反馈专区
下载频道积分规则调整V1710.18
spring mvc+mybatis+mysql+maven+bootstrap 整合实现增删查改简单实例.zip
资源所需积分/C币
当前拥有积分
当前拥有C币
为了良好体验,不建议使用迅雷下载
python获取网页源码,经过伪装,自动判断网页压缩与否
会员到期时间:
剩余下载个数:
剩余C币:593
剩余积分:0
为了良好体验,不建议使用迅雷下载
积分不足!
资源所需积分/C币
当前拥有积分
您可以选择
程序员的必选
绿色安全资源
资源所需积分/C币
当前拥有积分
当前拥有C币
(仅够下载10个资源)
为了良好体验,不建议使用迅雷下载
资源所需积分/C币
当前拥有积分
当前拥有C币
为了良好体验,不建议使用迅雷下载
资源所需积分/C币
当前拥有积分
当前拥有C币
您的积分不足,将扣除 10 C币
为了良好体验,不建议使用迅雷下载
你当前的下载分为234。
你还不是VIP会员
开通VIP会员权限,免积分下载
你下载资源过于频繁,请输入验证码
您因违反CSDN下载频道规则而被锁定帐户,如有疑问,请联络:!
若举报审核通过,可奖励20下载分
被举报人:
举报的资源分:
请选择类型
资源无法下载
资源无法使用
标题与实际内容不符
含有危害国家安全内容
含有反动色情等内容
含广告内容
版权问题,侵犯个人或公司的版权
*详细原因:
python获取网页源码,经过伪装,自动判断网页压缩与否下次自动登录
现在的位置:
& 综合 & 正文
Python抓取HTML
一. 抓取网页的三个步骤个人表面的理解
1. 抓取字符串
2. 分析字符串
3. 对分析结果做自己想做的处理
4. 你也可以做一些其他事情例如定时请求等
二. 抓取字符串
#!/usr/bin/env python
# Python 2.7.3
# A001_Get_HTML.py
# 检查抓取网页的HTML文本并显示
import urllib2
response = urllib2.urlopen('/')
htmlStr = response.read()
print(htmlStr)
#!/usr/bin/env python
# Python 2.7.3
# A001_Get_HTML.py
# 检查抓取网页的HTML文本并显示
import urllib2
req = urllib2.Request('')# Request也可以
response = urllib2.urlopen(req)
htmlStr = response.read()
print(htmlStr)
3. GET 方法
在网页中的搜索框中输入你好按一下百度一下按钮后产生如下网址
浏览器界面就会显示你好的相关搜索结果
现在使用来模式
#!/usr/bin/env python
# Python 2.7.3
# A003_Get_HTML.py
# 检查抓取网页的HTML文本并显示
import httplib
conn = httplib.HTTPConnection("")
# 看这里是怎么生成Get数据的
conn.request("GET", "/s?wd=%E4%BD%A0%E5%A5%BD&rsv_bp=0&rsv_spt=3&ie=utf-8&rsv_sug3=5&rsv_sug=0&rsv_sug1=5&rsv_sug4=373&inputT=7634")
# 后面的数据都是GET请求的数据.
r1 = conn.getresponse()# 获得响应的HTML
print(r1.status)# 打印结果
print(r1.reason)
data1 = r1.read()# 获得HTML
f = open('index.html', 'w')# 写入文件(你使用浏览器打开这个文件看看)
f.write(data1)
HEAD方法获取的是请求的资源的相应报头信息
#!/usr/bin/env python
# Python 2.7.3
# A003_Get_HTML.py
# 检查抓取网页的HTML文本并显示
import httplib
conn = httplib.HTTPConnection("www.python.org")
conn.request("HEAD", "/index.html")
# HEAD方法获取的是请求的url资源的相应报头信息
r1 = conn.getresponse()# 获得响应的HTML
print(r1.status)# 打印结果
print(r1.reason)
data1 = r1.read()# HEAD方法不能获得HTML
f = open('index.html', 'w')# 写入文件(你使用浏览器打开这个文件看看)
f.write(data1)
三. POST方法
1. 首先你要找一个有请求的网页
如果你自己配置了一个服务器也可以自己写一个我自己不熟悉和所以在网上找了一个
它的是这样的
&form method="POST" action="/3kpoll"&
&p&&input type="text" class="input-text" name="pkg" /&&/p&
&p&(enter &a href="http://pypi.python.org/pypi"&PyPI package name&/a&)&/p&
&input type="submit" value="Vote" /&
&a href="/3kpoll"&Results&/a&
2. 使用模拟这个
根据中的说明如下代码
2.1 方法一
(这个方法监控工具可以监控出来
#!/usr/bin/env python
# Python 2.7.3
# A005_Get_HTML.py
import urllib2,urllib,sys
url = "http://www.python.org/3kpoll"# URL
search = urllib.urlencode([('pkg','ddd')])# POST的数据对
req = urllib2.Request(url)# 建立连接
fd = urllib2.urlopen(req, search)# POST数据
while 1:# 读取响应
data = fd.read(1024)
if not len(data):
sys.stdout.write(data)
The package ddd does not exist. Please verify the package name
2.2 方法二
(这个方法工具没有监控出来
#!/usr/bin/env python
# Python 2.7.3
# A006_Get_HTML.py
import urllib2, urllib, sys
import httplib
url = "http://www.python.org/3kpoll"# URL
params = urllib.urlencode([('pkg','ddd')])# POST的数据对
# 如果有多个数据要POSt可以这样写
#params = urllib.urlencode({'programe': 'python', 'age': 12})# POST的数据对
# 这里是固定的写法(headers还有很多key/value对, 没写的就使用Python默认的)
headers = {"Content-type": "application/x-www-form-urlencoded" , "Accept": "text/plain"}
httpClient = httplib.HTTPConnection("www.python.org", 80, timeout=30)
# 这样也可以
# httpClient = httplib.HTTPConnection("www.python.org:80")
httpClient.request("POST", "/3kpoll", params, headers)
response = httpClient.getresponse()
print(response.status)
print(response.reason)
print(response.read())
print(response.getheaders()) #获取头信息
2.3 方法三
#!/usr/bin/env python
# Python 2.7.3
# A007_Get_HTML.py
import urllib
import urllib2
url = "http://www.python.org/3kpoll"# URL
params = urllib.urlencode([('pkg','ddd')])# POST的数据对
# 如果有多个数据要POSt可以这样写
# params = urllib.urlencode({'programe': 'python', 'age': 12})
req = urllib2.Request(url, params)
# 发送请求同时传params表单
response = urllib2.urlopen(req)
# 接受响应的信息
print(response.read())
2.4 方法四 模拟成发送
#!/usr/bin/env python
# Python 2.7.3
# A008_Get_HTML.py
# 模拟成IE
import urllib
import urllib2
url = "http://www.python.org/3kpoll"# URL
# 这里模拟成IE
user_agent = 'Mozilla/4.0 ( MSIE 5.5; Windows NT)'
headers = { 'User-Agent' : user_agent }
params = urllib.urlencode([('pkg','ddd')])# POST的数据对
# 如果有多个数据要POSt可以这样写
# params = urllib.urlencode({'programe': 'python', 'age': 12})
req = urllib2.Request(url, params, headers)
# 发送请求同时传params表单
response = urllib2.urlopen(req)
# 接受响应的信息
print(response.read())
怎样生成这些数据需要根据具体点站点的
&&&&推荐文章:
【上篇】【下篇】

我要回帖

更多关于 ie浏览器 网页快捷键 的文章

 

随机推荐