import requests from lxml import etree url="https://www.80142.com/txt/82776.html" html=requests.get(url) print(html)出现requests not get
时间: 2023-06-26 14:09:04 浏览: 128
这个问题可能是因为您没有正确安装 requests 库。请尝试在命令行中使用以下命令安装 requests 库:
```
pip install requests
```
如果您已经安装了 requests 库,那么可能是因为您的代码中出现了其他问题。请检查您的代码是否正确导入了 requests 库,并且 URL 是否正确。另外,您的代码中缺少换行符,请注意格式。下面是您的代码的修改版:
```
import requests
from lxml import etree
url = "https://www.80142.com/txt/82776.html"
html = requests.get(url)
print(html)
```
相关问题
import requests url = "https://www.cdairport.com/dynamic3.aspx?t=8&inout=D&date=0&etime=23:59&" html = requests.get(url) print(html)怎么修改
您提供的代码片段是使用requests库发送GET请求到指定URL,并打印返回的HTML内容。如果需要对这个代码做修改,可以按照以下步骤:
1. **添加异常处理**:在`requests.get()`前加上try-except块,以便捕获可能出现的网络错误或其他异常。
```python
import requests
url = "https://www.cdairport.com/dynamic3.aspx?t=8&inout=D&date=0&etime=23:59&"
try:
html = requests.get(url)
# 添加状态码检查,如果不是200则捕获错误
if html.status_code != 200:
print(f"请求失败,状态码: {html.status_code}")
else:
print(html.text)
except requests.exceptions.RequestException as e:
print(f"请求出错: {e}")
```
2. **解析响应内容**:如果你只想获取数据而不是整个HTML,可以查看响应的内容类型并根据情况解析。比如,如果是JSON,可以用`json()`函数解析;如果是XML,可以使用`xml.etree.ElementTree`模块。
```python
import requests
from bs4 import BeautifulSoup # 如果是HTML,需要安装BeautifulSoup库
try:
response = requests.get(url)
if response.status_code == 200:
if 'application/json' in response.headers['Content-Type']:
data = response.json()
print(data)
elif 'text/html' in response.headers['Content-Type']:
soup = BeautifulSoup(response.text, 'lxml')
# 解析HTML内容,提取你需要的信息
content = soup.find('your_tag') # 替换 'your_tag' 为实际标签名
print(content.text)
else:
# ...处理状态码...
except requests.exceptions.RequestException as e:
# ...处理请求错误...
```
解决一下以下代码报错的import requests from lxml import etree url = 'https://www.shanghairanking.cn/institution' headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36' } res = requests.get(url=url,headers=headers) print(res.status_code) html = etree.HTML(res.text) lis = html.xpath("//*[@id="__layout"]/div/div[2]/div[2]/div[1]") print(len(lis))
这段代码有一个小错误,就是在xpath的语句中双引号没有转义,需要改成单引号。修改后的代码如下:
```python
import requests
from lxml import etree
url = 'https://www.shanghairanking.cn/institution'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36'
}
res = requests.get(url=url, headers=headers)
print(res.status_code)
html = etree.HTML(res.text)
lis = html.xpath('//*[@id="__layout"]/div/div[2]/div[2]/div[1]')
print(len(lis))
```
这样就可以正确运行了,输出页面中指定元素的数量。
阅读全文