python 生成html提取html页面中的某写字段

1997人阅读
今天将 一个bfs 的爬虫 和 抽取Html整合到一起了。现在功能还是有局限性 。 其中抽取正文,详见 http://www.fuxiang90.me/2012/02/%E6%8A%BD%E5%8F%96html-%E6%AD%A3%E6%96%87/
现在只限定爬取 http 协议的网址,并只在内网测试了,因为和外网的连接不是不快。 一个全局的 url 队列 和 url set& 。队列是为了方便的实现bfs , set 是为了不重复爬取网页,流程还是相当的简单的,原理也是相当的简单。然后是单线程的,所以应该是比较慢的,之后会考虑多线程 ,爬取网页 ,抽取URL ,抽取正文,可以同步进行。 其中 下图是来源 & ,然后抽取网页中的url ,我同时还抽取了里面的正文,这个是为了以后建立索引的时候 ,方便进行中文分词
代码在这里贴 有问题,可能是里面有 html 的标签 ,请移步http://www.fuxiang90.me/?p=728&
# encoding:utf-8
# use BeautifulSoup to get font|p context
# 单线程版本的爬取html ,并深度遍历 ,之后 抽取正文 ,但是单线程未免有点慢
# 可以随意的使用这段代码,但请保留 下面的一行
# author : fuxiang ,mail:
from BeautifulSoup import BeautifulSoup
# For processing HTML
import urllib2
import sys
import Queue
import socket
import time
socket.setdefaulttimeout(8)
g_url_queue = Queue.Queue()
g_url_queue.put('http://www./')
tt = ['http://www./']
g_url_set = set(tt)
max_deep = 1
传入的参数是soup 类型 这个提取soup 类型里面的网址
def get_url_list(html):
global g_url_set
re_html = r'(http://(\w+\.)+\w+)'
res = html.findAll('a') #找到所有a标签
for x in res:
t = unicode(x) #这里的x是soup对象
#url[pos] = str(unicode(x['href']) )
#t = unicode(x)
#print unicode(x['href'])
m = re.findall(re_html , t)
for xx in m:
str_url = xx[0]
#print str_url
g_url_set |= set('fuxiang')
if str_url not in g_url_set :
g_url_queue.put(str_url )
g_url_set |= set(str_url)
#######################################################
def strip_tags(html):
Python中过滤HTML标签的函数
&&& str_text=strip_tags(&&font color=red&hello&/font&&)
&&& print str_text
from HTMLParser import HTMLParser
html = html.strip()
html = html.strip(&\n&)
result = []
parser = HTMLParser()
parser.handle_data = result.append
parser.feed(html)
parser.close()
return ''.join(result)
#######################################################
# 可以传入 网址 或者 本地文件 ,解析出里面的正文
def get_context( url ):
re_html = 'http[s]?://[A-Za-z0-9]+.[A-Za-z0-9]+.[A-Za-z0-9]+
m = re.match(re_html,str(url)) if m is None : # 如果url 是本地文件 fp = open(unicode(url),'r') else: fp = urllib2.urlopen(url) html = fp.read() soup = BeautifulSoup(html) allfonttext=soup.findAll(['a','p','font']) if len(allfonttext)&=0: print 'not found text' fwrite
= open('u'+str(url) ,'w') for i in allfonttext: t = (i.renderContents() ) context = strip_tags(t) fwrite.write (context) fwrite.close()####################################################### def main_fun(deep): global g_url_set global g_url_queue if deep &
max_deep: return count = 0 print 'debug' while g_url_queue.empty() is not True: print 'debug2' l_url = g_url_queue.get() print l_url # 捕捉超时错误 ,有些网页链接不上 try: fp = urllib2.urlopen(l_url) except : continue html = fp.read() fwrite = open(str(count+1) ,'w') fwrite.write(html)
fwrite.close() soup = BeautifulSoup(html) get_url_list(soup) get_context(count+1) count += 1 if count &= 100 : return # uncompletedef get_html_page(url): furl = urllib2.urlopen(url) html = furl.read() soup = BeautifulSoup(html)if __name__ == &__main__&: main_fun(1)
time.sleep(10)
然后我现在想做一个多线程的,即下载页面 和分析html 抽取里面的正文和url 是可以同步进行的 ,然后对上面的代码进行简单的修改后,勉强能运行 ,主要是增加了 &threading ,对全局的queue 访问了加了锁控制,因为之前没有写过多线程的代码,所以觉得还是希望路过的朋友可以,提出建议。&
# encoding:utf-8
# use BeautifulSoup to get font|p context
# 可以随意的使用这段代码,但请保留 下面的一行
# author : fuxiang ,mail:
from BeautifulSoup import BeautifulSoup
# For processing HTML
import urllib2
import sys
import Queue
import socket
import time
import threading
queue_lock = threading.RLock()
file_lock = threading.RLock()
socket.setdefaulttimeout(8)
g_url_queue = Queue.Queue()
g_url_queue.put('http://www./')
g_file_queue = Queue.Queue()
tt = ['http://www./']
g_url_set = set(tt)
max_deep = 1
#######################################################
def strip_tags(html):
Python中过滤HTML标签的函数
&&& str_text=strip_tags(&&font color=red&hello&/font&&)
&&& print str_text
from HTMLParser import HTMLParser
html = html.strip()
html = html.strip(&\n&)
result = []
parser = HTMLParser()
parser.handle_data = result.append
parser.feed(html)
parser.close()
return ''.join(result)
def get_context( soup ,url):
allfonttext=soup.findAll(['a','p','font'])
if len(allfonttext)&=0:
print 'not found text'
fwrite = open('u'+str(url) ,'w')
for i in allfonttext:
t = (i.renderContents() )
context = strip_tags(t)
fwrite.write (context)
fwrite.close()
class get_page_thread(threading.Thread):
def __init__(self, name):
threading.Thread.__init__(self)
self.t_name = name
def run(self):
global g_url_set
global g_url_queue
global g_file_queue
print 'debug'
while g_url_queue.empty() is not True:
print self.t_name
# 增加一个锁
queue_lock.acquire()
l_url = g_url_queue.get()
queue_lock.release()
print l_url
# 捕捉超时错误 ,有些网页链接不上
fp = urllib2.urlopen(l_url)
html = fp.read()
fwrite = open(str(count+1) ,'w')
fwrite.write(html)
fwrite.close()
file_lock.acquire()
g_file_queue.put(count+1)
file_lock.release()
count += 1
if count &= 100 :
class get_url_list_thread(threading.Thread):
def __init__(self, name):
threading.Thread.__init__(self)
self.t_name = name
def run(self):
global g_url_set
global g_file_queue
global queue_lock
global file_lock
while g_file_queue.empty() is not True:
file_lock.acquire()
filename = g_file_queue.get()
file_lock.release()
fd = open(str(filename),'r')
html = fd.read();
soup = BeautifulSoup(html)
get_context(soup,filename)
re_html = r'(http://(\w+\.)+\w+)'
res = soup.findAll('a') #找到所有a标签
for x in res:
t = unicode(x) #这里的x是soup对象
#url[pos] = str(unicode(x['href']) )
#t = unicode(x)
#print unicode(x['href'])
m = re.findall(re_html , t)
for xx in m:
str_url = xx[0]
#print str_url
g_url_set |= set('fuxiang')
if str_url not in g_url_set :
queue_lock.acquire()
g_url_queue.put(str_url )
queue_lock.release()
g_url_set |= set(str_url)
# uncomplete
def get_html_page(url):
urllib2.urlopen(url)
html = furl.read()
soup = BeautifulSoup(html)
if __name__ == &__main__&:
thread1 = get_page_thread('a')
thread2 = get_url_list_thread('b')
thread3 = get_page_thread('c')
thread4 = get_page_thread('d')
thread1.start()
time.sleep(20)
thread2.start()
time.sleep(20)
thread3.start()
thread4.start()
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:53417次
积分:1561
积分:1561
排名:第12428名
原创:100篇
评论:18条
(6)(4)(6)(3)(5)(4)(2)(1)(4)(1)(2)(1)(3)(2)(11)(4)(1)(1)(2)(2)(2)(1)(2)(4)(2)(1)(3)(7)(9)(1)(5)(1)(1)(1)注册时间 06:21:34
最后登录 02:03:58
用户头衔:注册会员
状态:我不在线
比如我想提取一个html页面,其中所有被包含在&td&标签里面的数据?
我的Blog:
http://galeki.&br /&
LinuxGem: 每天为你收集Linux技巧、软件、文档:&br /&
http://www.linuxgem.org
注册时间 19:25:00
最后登录 18:42:11
用户头衔:注册会员
状态:我不在线
如果是字符级别的, 应该用 正则表达式, 不过我没用过Python所以无法详细说.如果是DOM级别的, 使用DOM(XML)的Python绑定.
http://www.ideawu.net
注册时间 08:53:39
最后登录 09:31:29
用户头衔:注册会员
状态:我不在线
A dirty snippet:
#!/usr/bin/env python
from sgmllib import SGMLParser
&head&what's in&/head&
&td& hello
&td& table1 blahblah &/td&
&td& table &/td&
ok the end blah
class Parse(SGMLParser):
def reset(self):
self.found_td = 0
SGMLParser.reset(self)
def start_td(self, attrs):
self.found_td += 1
def end_td(self):
self.found_td -= 1
def handle_data(self, text):
if self.found_td & 0:
print 'Data: %s' % text
p = Parse()
For more info:
Vim 中文文档:&br /&
http://vimcdoc.sourceforge.net/&br /&
如何有效地报告 Bug:&br /&
http://www.chiark.greenend.org.uk/~sgtatham/bugs-cn.html&br /&
注册时间 13:53:54
最后登录 17:49:41
用户头衔:注册会员
状态:我不在线
使用HTMLParser吧,是SGMLParser的继承类,针对解析HTML的任务更方便直接一点,这里有一个例子:通过baidu下载mp3的脚本,Python版
[url=http://www.ohloh.net/accounts/19974?ref=Detailed]
[img]http://www.ohloh.net/accounts/19974/widgets/account_detailed.gif[/img][/url]
注册时间 06:21:34
最后登录 02:03:58
用户头衔:注册会员
状态:我不在线
明白了,原来要每个标签设一个标记,然后在handle_date里面判断读取。
我的Blog:
http://galeki.&br /&
LinuxGem: 每天为你收集Linux技巧、软件、文档:&br /&
http://www.linuxgem.org
注册时间 09:05:52
最后登录 12:44:27
用户头衔:注册会员
状态:我不在线
crquan 说:使用HTMLParser吧,是SGMLParser的继承类,针对解析HTML的任务更方便直接一点,
通过Baidu查到了这个1年前的帖子,因为正好在思考相关问题,所以把这个帖子顶出来,权当发新贴了
这位朋友说 HTMLParser 是对 SGMLParser 的继承类,呵呵,没有认真看源码吧?
以前的版本我不知道,我查看2.5版的代码发现 两个都基于 markupbase.Parserbase
并非继承关系,而是兄弟姐妹 :)
两个类实现的函数虽然大体思路相同,但确实还有不小的差别
注册时间 14:44:08
最后登录 19:46:46
用户头衔:注册会员
状态:我不在线
三楼正解~~
Hiweed 0.6&br /&
Pentium-M 700MHz&br /&
ATI-RAGE 128 PRO
Processed in : 0.013000 second(s) (C)2015LinuxSir -当前位置: &
& 三、从HTML文档中提取文本
[] [] [] []利用Python抓取和解析网页(下)
责任编辑:作者:IT168 宇文&&
【内容导航】
  三、从HTML文档中提取文本  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。  import HTMLParser  import urllib  class parseText(HTMLParser.HTMLParser):  def handle_data(self, data):  if data != '\n':  urlText.append(data)  lParser = parseText()  lParser.feed(urllib.urlopen( \  http://docs.python.org/lib/module-HTMLParser.html).read())  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:  import HTMLParser  import urllib  urlText = []  #定义HTML解析器  class parseText(HTMLParser.HTMLParser):  def handle_data(self, data):  if data != '\n':  urlText.append(data)  #创建HTML解析器的实例  lParser = parseText()  #把HTML文件传给解析器  lParser.feed(urllib.urlopen( \  &http://docs.python.org/lib/module-HTMLParser.html& \  ).read())  lParser.close()  for item in urlText:  print item  上面代码的运行输出过长,在此略过。
【内容导航】
本文欢迎转载,转载请注明:转载自IT168 [
本文链接:
技术开发最新文章&&
技术开发相关文章&&
技术开发热点关注
技术开发热评文章
装机必备软件
技术开发精彩专题
All Rights Reserved. 北京皓辰网域网络信息技术有限公司. 版权所有利用Python抓取和解析网页(转载)
这是我写爬虫的时候搜到的一篇比较不错的文章
讲的还是比较详细 虽然代码有部分缩进错误 稍微修改下就可以有很好的效果了 于是我就脸皮厚的贴了过来 收藏吧算是
对搜索引擎、文件索引、文档转换、数据检索、站点备份或迁移等应用程序来说,经常用到对网页(即HTML文件)的解析处理。事实上,通过Python语言提供的各种模块,我们无需借助Web服务器或者Web浏览器就能够解析和处理HTML文档。本文上篇中,我们介绍了一个可以帮助简化打开位于本地和Web上的HTML文档的Python模块。在本文中,我们将论述如何使用Python模块来迅速解析在HTML文件中的数据,从而处理特定的内容,如链接、图像和Cookie等。同时还会介绍如何规范HTML文件的格式标签。
  一、(1)从HTML文档中提取链接
  Python语言还有一个非常有用的模块HTMLParser,该模块使我们能够根据HTML文档中的标签来简洁、高效地解析HTML文档。所以,在处理HTML文档的时候,HTMLParser是最常用的模块之一。
import HTMLParser
import urllib
import sys
parseLinks(HTMLParser.HTMLParser):
def handle_starttag(self,
tag, attrs):
if tag == 'a':
for name,value in
if name == 'href':
print value
self.get_starttag_text()
parseLinks()
lParser.feed(urllib.urlopen(url).read())
& & (2)从网页中提取文本
import HTMLParser
import urllib
import sys
urlText = []
class parseText(HTMLParser.HTMLParser):
def handle_data(self, data):
if data != '\n':
urlText.append(data)
lParser = parseText()
lParser.feed(urllib.urlopen(url).read())
lParser.close()
fp = open("/home/zhou/web text.txt","w")
for item in urlText:
print item
fp.write(item)
fp.close()
(3)将网页保存下来
urlText = urllib.urlopen(url)
content = urlText.read()
fp = open("/home/zhou/web.html","w")
fp.write(content)
fp.close()
 二、从HTML文档中提取图像
  处理HTML文档的时候,我们常常需要从其中提取出所有的图像。使用HTMLParser模块后,这项任务将变得易如反掌。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_starttag()方法,该方法的作用是查找img标签,并保存src属性值所指的文件。
  import&HTMLParser
  import&urllib
  def&getImage(addr):
  u&=&urllib.urlopen(addr)
  data&=&u.read()
  class&parseImages(HTMLParser.HTMLParser):
  def&handle_starttag(self,
tag, attrs):
  if&tag&==&'img':
  for&name,value&in&attrs:
  if&name&==&'src':
  getImage(urlString&+&"/"&+&value)
  u&=&urllib.urlopen(urlString)
  lParser.feed(u.read())
  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。
  为了解析HTML文件的内容并显示包含其中的图像,可以使用feed(data)函数将数据发送至HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。下面是一个具体的示例:
  import&HTMLParser
  import&urllib
  import&sys
  urlString&=&"http://www.python.org"
  #把图像文件保存至硬盘
  def&getImage(addr):
  u&=&urllib.urlopen(addr)
  data&=&u.read()
  splitPath&=&addr.split('/')
  fName&=&splitPath.pop()
  print&"Saving
%s"&%&fName
  f&=&open(fName,&'wb')
  f.write(data)
  f.close()
  #定义HTML解析器
  class&parseImages(HTMLParser.HTMLParser):
  def&handle_starttag(self,
tag, attrs):
  if&tag&==&'img':
  for&name,value&in&attrs:
  if&name&==&'src':
  getImage(urlString&+&"/"&+&value)
  #创建HTML解析器的实例
  lParser&=&parseImages()
  #打开HTML文件
  u&=&urllib.urlopen(urlString)
  print&"Opening
URL\n===================="
  print&<()
  #把HTML文件传给解析器
  lParser.feed(u.read())
  lParser.close()
  上述代码的运行结果如下所示:
  Opening URL
  ====================
  Date: Fri,&26&Jun&2009&10:54:49&GMT
  Server: Apache/2.2.9&(Debian)
DAV/2&SVN/1.5.1&mod_ssl/2.2.9&OpenSSL/0.9.8g
mod_wsgi/2.3&Python/2.5.2
  Last-Modified:
Thu,&25&Jun&2009&09:44:54&GMT
  ETag:&"e7-46d"
  Accept-Ranges: bytes
  Content-Length:&18151
  Connection: close
  Content-Type: text/html
  Saving python-logo.gif
  Saving trans.gif
  Saving trans.gif
  Saving afnic.fr.png
& 三、从HTML文档中提取文本
  处理HTML文档的时候,我们常常需要从其中提取出所有的文本。使用HTMLParser模块后,这项任务将变得非常简单了。首先,我们需要定义一个新的HTMLParser类,以覆盖handle_data()方法,该方法是用来解析并文本数据的。
  import&HTMLParser
  import&urllib
  class&parseText(HTMLParser.HTMLParser):
  def&handle_data(self,
  if&data&!=&'\n':
  urlText.append(data)
  lParser&=&parseText()
  lParser.feed(urllib.urlopen( \
  http://docs.python.org/lib/module-HTMLParser.html).read())
  定义好新的HTMLParser类之后,需要创建一个实例来返回HTMLParser对象。然后,就可以使用urllib.urlopen(url)打开HTML文档并读取该HTML文件的内容了。
  为了解析HTML文件的内容并显示包含其中的文本,我们可以使用feed(data)函数将数据传递给HTMLParser对象。HTMLParser对象的feed函数将接收数据,并通过定义的HTMLParser对象对数据进行相应的解析。要注意的是,如果传给HTMLParser的feed()函数的数据不完整的话,那么不完整的标签会保存下来,并在下一次调用feed()函数时进行解析。当HTML文件很大,需要分段发送给解析器的时候,这个功能就会有用武之地了。下面是一个具体的代码示例:
  import&HTMLParser
  import&urllib
  urlText&=&[]
  #定义HTML解析器
  class&parseText(HTMLParser.HTMLParser):
  def&handle_data(self,
  if&data&!=&'\n':
  urlText.append(data)
  #创建HTML解析器的实例
  lParser&=&parseText()
  #把HTML文件传给解析器
  lParser.feed(urllib.urlopen( \
  “http://docs.python.org/lib/module-HTMLParser.html” \
  ).read())
  lParser.close()
  for&item&in&urlText:
  print&item
  上面代码的运行输出过长,在此略过
四、从HTML文档中提取Cookies
  很多时候,我们都需要处理Cookie,幸运的是Python语言的cookielib模块为我们提供了许多自动处理在HTML中的HTTP
Cookie的类。当处理要求为客户端设置Cookie的HTML文档的时候,这些类对我们非常有用。
  import&urllib2
  import&cookielib
  from&urllib2&import&urlopen,
  cJar&=&cookielib.LWPCookieJar()
  opener=urllib2.build_opener( \
  urllib2.HTTPCookieProcessor(cJar))
  urllib2.install_opener(opener)
  r&=&Request(testURL)
  h&=&urlopen(r)
  for&ind,
cookie&in&enumerate(cJar):
  print&"%d
- %s"&%&(ind,
  cJar.save(cookieFile)
  为了从HTML文档提取cookies,首先得使用cookielib模块的LWPCookieJar()函数创建一个cookie
jar的实例。LWPCookieJar()函数将返回一个对象,该对象可以从硬盘加载Cookie,同时还能向硬盘存放Cookie。
  接下来,使用urllib2模块的build_opener([handler, . .
.])函数创建一个opener对象,当HTML文件打开时该对象将处理cookies。函数build_opener可以接收零个或多个处理程序(这些程序将按照它们被指定的顺序连接在一起)作为参数并返回一个。
  注意,如果想让urlopen()使用opener对象来打开HTML文件的话,可以调用install_opener(opener)函数,并将opener对象传给它。否则,请使用opener对象的open(url)函数来打开HTML文件。
  一旦已经创建并安装了opener对象,就可以使用urllib2模块中的Request(url)函数来创建一个Request对象,然后就能使用urlopen(Request)函数来打开HTML文件了。
  打开HTML页面后,该页面的所有Cookie将被存放到LWPCookieJar对象中,之后,您可以使用LWPCookieJar对象的save(filename)函数了。
  import&os
  import&urllib2
  import&cookielib
  from&urllib2&import&urlopen,
  cookieFile&=&"cookies.dat"
  testURL&=&'/'
  #为cookie
jar 创建实例
  cJar&=&cookielib.LWPCookieJar()
  #创建HTTPCookieProcessor的opener对象
  opener&=&urllib2.build_opener(
  urllib2.HTTPCookieProcessor(cJar))
  #安装HTTPCookieProcessor的opener
  urllib2.install_opener(opener)
  #创建一个Request对象
  r&=&Request(testURL)
  #打开HTML文件
  h&=&urlopen(r)
  print&"页面的头部\n======================"
  print&<()
  print&"页面的Cookies\n======================"
  for&ind,
cookie&in&enumerate(cJar):
  print&"%d
- %s"&%&(ind,
  #保存cookies
  cJar.save(cookieFile)
  上述代码的运行结果如下所示:
  页面的头部
  ======================
  Cache-Control: private
  Content-Type: text/ charset=ISO-8859-1
  Set-Cookie: PREF=ID=5d733:NW=1:TM=:LM=:S=frfx--b3xt73TaEA; expires=Sun,&26-Jun-2011&11:26:48&GMT;
path=/; domain=.
  Date: Fri,&26&Jun&2009&11:26:48&GMT
  Server: mfe
  Expires: Fri,&26&Jun&2009&11:26:48&GMT
  Transfer-Encoding: chunked
  Connection: close
  页面的Cookies
  ======================
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

更多关于 python提取字符串 的文章

 

随机推荐