利用urllib.request等爬虫模块的相关知识,编程实现如下功能: -根据给定的URL链接,读取网页内容; -将网页内容存储在文本文件html.txt中。用idle写
时间: 2024-03-31 18:33:56 浏览: 97
网络爬虫--用来提取网页内容和URL的程序
4星 · 用户满意度95%
好的,以下是代码实现:
```python
import urllib.request
url = input('请输入URL链接:') # 输入URL链接
response = urllib.request.urlopen(url) # 打开URL链接
html = response.read() # 读取网页内容
with open('html.txt', 'wb') as f: # 以二进制写入方式打开文件html.txt
f.write(html) # 将网页内容写入文件
print('网页内容已保存在html.txt中!')
```
运行程序后,在控制台中输入需要爬取的URL链接,程序将会自动读取网页内容并保存在名为html.txt的文本文件中。
阅读全文