敏感词信息有哪些?为什么page_url 是有内容的,但 def start_requests(self): yield scrapy.Request( url=self.page_url, method='POST', headers=self.headers, body=json.dumps({ "categoryCode": "ZcyAnnouncement11", "keyword": '', "pageNo": "1", "pageSize": "15", "procurementMethodCode": "1", "publishDateBegin": self.start_date, "publishDateEnd": self.end_date }), callback=self.parse, ) print(vars(start_requests))输出就没有内容,这是什么原因造成的
时间: 2024-02-14 15:26:33 浏览: 175
double_array Trie
`start_requests` 是一个生成器函数,它使用 `yield` 语句返回一个 `scrapy.Request` 对象。当你调用 `print(vars(start_requests))` 时,实际上是打印了 `start_requests` 这个生成器函数的内部状态,而不是返回的 `scrapy.Request` 对象的内容。
要获取 `scrapy.Request` 对象的内容,你可以在 `parse` 方法中打印或处理。在 `parse` 方法中,你可以通过 `response` 对象获取请求的响应内容,例如使用 `response.text` 来获取响应的文本内容。
示例代码如下:
```python
def parse(self, response):
print(response.text) # 打印响应内容
# 其他处理逻辑
```
这样就可以获取到请求的响应内容。请确保在适当的地方调用了 `parse` 方法,并处理了请求的响应。
阅读全文