为什么这个循环只循环了一次:df_ret = DataFrame(columns=[" 标题","日期"]) count =1 for tag in soup.find_all('ul', class_='win8mi_latest_5slist'): m_name = tag.find('a').get('title') m_date = tag.find('li') m_date_1 = m_date.findAll('span') df_ret.loc[count] = [m_name, m_date_1] print(df_ret.head()) count = count + 1 df_ret.to_csv('碳汇.csv', encoding= 'gbk')
时间: 2024-02-16 14:02:50 浏览: 236
这个循环只循环了一次的原因是因为在循环内部的代码块中,`df_ret.to_csv('碳汇.csv', encoding= 'gbk')`语句被移动到了循环外部,因此只有循环结束后才会将结果写入到文件中,导致每次循环得到的结果都被覆盖了。如果你想要将每次循环得到的结果都写入到文件中,应该将`df_ret.to_csv('碳汇.csv', encoding= 'gbk')`语句放到循环内部,即:
```python
df_ret = DataFrame(columns=["标题", "日期"])
count = 1
for tag in soup.find_all('ul', class_='win8mi_latest_5slist'):
m_name = tag.find('a').get('title')
m_date = tag.find('li')
m_date_1 = m_date.findAll('span')
df_ret.loc[count] = [m_name, m_date_1]
df_ret.to_csv('碳汇.csv', encoding='gbk')
print(df_ret.head())
count = count + 1
```
这样,每次循环得到的结果都会被写入到文件中。
相关问题
def loadJson(filename): ret_json = None try: with open(filename, "r") as json_file: ret_json = json.load(json_file) except Exception as e: print(f"Error while opening {filename}.\nerror message: {e}") return ret_json #json file로부터 읽어온다. def getUrls(json_dict, url_type:int = 0, max_len:int = -1): if url_type <0 or url_type >1: raise Exception("Invalid Parameter(url_type) Error!") if url_type == 0: ret_url_list = [obj['url'] for obj in json_dict] if url_type == 1: ret_url_list = [obj['url'] for obj in json_dict['_embedded']['phish']] if max_len != -1: if len(ret_url_list) > max_len: ret_url_list = ret_url_list[:max_len] random.shuffle(ret_url_list) return ret_url_list # input : filepath # output : url list def getUrls_f(_filenames, url_type: int = 0, max_len:int = -1): ret_url_list = [] if type(_filenames) == str: json_dict = loadJson(_filenames) ret_url_list = getUrls(json_dict, url_type, max_len) if type(_filenames) == list: for filename in _filenames: json_dict = loadJson(filename) ret_url_list.extend(getUrls(json_dict, url_type, max_len)) return ret_url_list
这段代码是一个用于从 JSON 文件中读取 URL 的函数。它包含两个函数,loadJson 和 getUrls。
loadJson 函数接受一个文件名作为参数,尝试打开该文件并将其解析为 JSON 数据。如果出现任何错误,它将打印错误信息并返回 None。否则,它将返回解析后的 JSON 数据。
getUrls 函数接受一个 JSON 字典、一个 url_type 参数和一个 max_len 参数。url_type 参数指定从 JSON 数据中提取 URL 的方式,0 表示直接从 JSON 数据中提取,1 表示从嵌入式 JSON 数据中提取。max_len 参数指定最多返回多少个 URL。如果未指定 max_len 或 max_len 为负数,则返回所有 URL。
getUrls_f 函数接受一个文件名列表、url_type 参数和 max_len 参数。它调用 loadJson 和 getUrls 函数以从所有文件中提取 URL,并将它们存储在一个列表中。然后,它返回该列表。
r = dst[roll] black_count = np.sum(color == 0) if black_count == 0: return 0 else: black_index = np.where(color == 0) return black_index[0][0] while (1): ret, frame = cap.read() cv2.imshow("recognize_face", frame)
这是在使用Python中的OpenCV库进行图像处理时,用于读取摄像头数据并显示的语句。在这个循环中,使用cap.read()函数读取摄像头数据,并将图像显示在名为"recognize_face"的窗口中,使用cv2.imshow()函数实现。在这个程序中,还定义了一个名为dst的数组,并使用numpy库中的一些函数对其进行处理,具体操作不在这里详述。同时,也定义了一个名为color的变量,用于表示图像中黑色像素的数量。如果黑色像素数量为0,则返回0,否则找到第一个黑色像素的位置,并返回该位置的索引。这个程序的具体功能需要根据完整代码的上下文和注释来判断。
阅读全文