Python网页抓取入门与方法详解

4星 · 超过85%的资源 需积分: 49 28 下载量 87 浏览量 更新于2024-09-21 收藏 643KB DOC 举报
在Python中进行页面抓取是一项常见的任务,特别是在数据分析和自动化任务中,了解如何有效地提取和处理网页数据至关重要。本文将介绍几种Python中常用的抓取页面的方法,适合初学者入门。 首先,让我们来看一个基础的例子,使用`urllib`库来提取网页正文。`urllib.request`模块提供了一个方便的接口来获取HTML内容。在这个例子中,我们导入了`urllib.request`模块,设置URL为"google.cn",然后使用`urlopen()`函数打开连接并读取响应内容。`read()`方法返回的是原始二进制数据,我们可以将其转换为字符串来进一步解析: ```python import urllib.request url = "http://google.cn/" response = urllib.request.urlopen(url) page = response.read().decode('utf-8') # 将二进制数据转为字符串 # 提取HTML文本 text = page.split('<body')[1].split('</body>')[0] # 假设我们只想提取<body>内的内容 ``` 这段代码假设HTML结构中`<body>`标签包含了正文,通过切割字符串来提取这部分内容。 另一个方法是利用`sgmllib`模块的`SGMLParser`类,如`Html2txt`所示。这个类继承自`SGMLParser`,重写了`handle_data`方法来收集HTML文本,同时处理头部和尾部的标记。在`__main__`部分,我们实例化`Html2txt`,然后使用`feed()`方法传入网页内容,最后打印出解析后的文本: ```python class Html2txt(SGMLParser): ... if __name__ == "__main__": parser = Html2txt() parser.feed(urllib.urlopen("http://icode.csdn.net").read()) print(parser.text.strip()) ``` 这个方法更适用于复杂HTML结构,因为它可以智能地处理HTML文档。 下载网页除了提取正文,还可以直接获取整个网页内容。例如,使用`httplib`模块,我们可以通过发送HTTP请求来获取网页,如下所示: ```python import http.client as httplib conn = httplib.HTTPConnection("www.baidu.com") conn.request("GET", "/index.html") response = conn.getresponse() data = response.read() print(data) conn.close() ``` 这段代码创建了一个到百度主页的HTTP连接,发送GET请求,接收响应数据,然后关闭连接。 对于更高级的需求,比如支持HTTPS或处理网络错误,可以使用`requests`库,它封装了底层的HTTP请求,并提供了更简洁的API。 最后,提到的`pycurl`模块是Python的一个第三方库,用于处理CURL命令的功能,它可以下载网页内容。尽管Python的标准库已经很强大,但在某些场景下,`pycurl`可能更为灵活和高效。例如,安装`pycurl`后,你可以这样下载网页: ```python import pycurl c = pycurl.Curl() c.setopt(c.URL, "https://example.com") c.setopt(c.WRITEDATA, b'') # 存储下载内容 c.perform() data = c.getinfo(pycurl.HTTP_CODE) # 获取HTTP状态码 c.close() ``` `pycurl`允许你设置更多的选项,如HTTP头、代理等,以适应复杂的抓取需求。 Python提供了多种方式来抓取网页,从基础的urllib库到更高级的第三方库,都能满足不同场景下的需求。掌握这些方法有助于你在数据抓取和Web爬虫项目中游刃有余。