dit['面积'] = houseInfo[1].strip('平米') 什么意思

时间: 2023-10-31 13:05:40 浏览: 30
这段代码是将字符串变量 `houseInfo[1]` 中的 `"平米"` 字符串去除,并将剩余部分转换为浮点数类型后,赋值给字典 `dit` 中的键 `'面积'`。假设 `houseInfo[1]` 的值为 `'120平米'`,执行完这段代码后,`dit` 中的键值对为 `{'面积': 120.0}`。
相关问题

for i in range(1,123): if i == 1: url = 'https://www.4399.com/flash_fl/5_1.htm' html = requests.get(url =url,headers=headers).content doc = etree.HTML(html) name = doc.xpath('//*[@class="list affix cf"]/li/a/text()') url_1 = doc.xpath('//*[@class="list affix cf"]/li/a/@href') data_list = [] for wu_y_s in url_1: new_url = 'https://www.4399.com' +wu_y_s for i in range(len(name)): dit = {} dit['游戏名称'] = name[i] dit['游戏地址'] = new_url[i] data_list.append(dit) csv_writer.writerow(dit)为什么错

这段代码存在一些问题: 1. 缺少导入 requests 和 etree 库的语句。 2. 缺少定义 headers 变量的语句。 3. 缺少定义 csv_writer 变量的语句。 4. 在 for 循环中,new_url 是一个字符串,无法像列表一样进行索引。 你需要先导入需要的库,然后定义 headers 和 csv_writer 变量,并在 for 循环中将 new_url 改为列表形式,如下所示: ``` import requests from lxml import etree import csv headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} url = 'https://www.4399.com/flash_fl/5_1.htm' html = requests.get(url=url, headers=headers).content doc = etree.HTML(html) name = doc.xpath('//*[@class="list affix cf"]/li/a/text()') url_1 = doc.xpath('//*[@class="list affix cf"]/li/a/@href') with open('game.csv', 'w', newline='', encoding='utf-8') as csvfile: fieldnames = ['游戏名称', '游戏地址'] csv_writer = csv.DictWriter(csvfile, fieldnames=fieldnames) csv_writer.writeheader() data_list = [] for i in range(len(url_1)): new_url = 'https://www.4399.com' + url_1[i] dit = {} dit['游戏名称'] = name[i] dit['游戏地址'] = new_url data_list.append(dit) csv_writer.writerow(dit) ``` 这样就可以正确地将游戏名称和游戏地址保存到 csv 文件中了。

for i in range(1,123): if i == 1: url = 'https://www.4399.com/flash_fl/5_1.htm' html = requests.get(url,headers=headers).content doc = etree.HTML(html) name = doc.xpath('//*[@class="list affix cf"]/li/a/text()') url_1 = doc.xpath('//*[@class="list affix cf"]/li/a/@href') data_list = [] for wu_y_s in url_1: new_url = 'https://www.4399.com' +wu_y_s for i in range(len(name)): dit = {} dit['游戏名称'] = name[i] dit['游戏地址'] = new_url[i] data_list.append(dit) csv_writer.writerow(dit) else: url = 'https://www.4399.com/flash_fl/more_5_{}.htm'.format(str(i)) html = requests.get(url,headers=headers).content doc = etree.HTML(html) name = doc.xpath('//*[@class="list affix cf"]/li/a/text()') url_1 = doc.xpath('//*[@class="list affix cf"]/li/a/@href') data_list = [] for wu_y_s in url_1: new_url = 'https://www.4399.com' +wu_y_s for i in range(len(name)): dit = {} dit['游戏名称'] = name[i] dit['游戏地址'] = new_url[i] data_list.append(dit) csv_writer.writerow(dit) print(data_list)怎么改

根据你的代码,你想爬取4399游戏网站的游戏名称和链接,并将其保存到CSV文件中。但是,你的代码有一些问题,其中最主要的问题在于每次循环都会覆盖之前爬取到的数据,最终只会保存最后一页数据。 为了解决这个问题,你需要将data_list定义在循环外部,这样在每次循环中都会将新爬取到的数据添加到data_list中。另外,还需要修改CSV文件的写入方式,应该在循环结束后再次打开CSV文件并写入所有数据。 下面是修改后的代码示例: ``` import requests import csv from lxml import etree headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} data_list = [] # 定义空列表,用于保存所有数据 for i in range(1, 123): if i == 1: url = 'https://www.4399.com/flash_fl/5_1.htm' else: url = 'https://www.4399.com/flash_fl/more_5_{}.htm'.format(str(i)) html = requests.get(url, headers=headers).content doc = etree.HTML(html) name = doc.xpath('//*[@class="list affix cf"]/li/a/text()') url_1 = doc.xpath('//*[@class="list affix cf"]/li/a/@href') for wu_y_s in url_1: new_url = 'https://www.4399.com' + wu_y_s for i in range(len(name)): dit = {} dit['游戏名称'] = name[i] dit['游戏地址'] = new_url data_list.append(dit) # 将数据写入CSV文件 with open('4399_games.csv', 'w', newline='', encoding='utf-8') as f: fieldnames = ['游戏名称', '游戏地址'] csv_writer = csv.DictWriter(f, fieldnames=fieldnames) csv_writer.writeheader() csv_writer.writerows(data_list) print(data_list) ``` 在上面的代码中,首先定义了一个空列表data_list,然后在每次循环中将新爬取到的数据添加到data_list中。在所有循环结束后,再次打开CSV文件并写入所有数据。最终,data_list中保存了所有游戏名称和链接的字典数据,并且已经成功写入到CSV文件中。

相关推荐

分析这段python代码,import requests import parsel import csv import time f = open('book.csv', mode='a', encoding='utf-8-sig', newline='') csv_writer = csv.DictWriter(f, fieldnames=[ '标题', '推荐', '评价', '作者', '出版日期', '出版社', '原价', '售价', '折扣', '电子书价格', '详情页', ]) csv_writer.writeheader() for page in range(1,26): print(f"----------------------------正在爬取第{page}页数据--------------------------------") time.sleep(2.5) url = f"http://bang.dangdang.com/books/bestsellers/01.00.00.00.00.00-24hours-0-0-1-{page}" headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 Edg/113.0.1774.57' } response = requests.get(url=url, headers=headers) # print(response.text) selector = parsel.Selector(response.text) lis = selector.css('ul.bang_list li') for li in lis: title = li.css('.name a::attr(title)').get() href = li.css('.name a::attr(href)').get() comment = li.css('.star a::text').get() recommend = li.css('.tuijian::text').get() author = li.css('div:nth-child(5) a:nth-child(1)::attr(title)').get() date = li.css('div:nth-child(6) span::text').get() press = li.css('div:nth-child(6) a::text').get() price_n = li.css('div.price p:nth-child(1) span.price_n::text').get() price_r = li.css('div.price p:nth-child(1) span.price_r::text').get() price_s = li.css('div.price p:nth-child(1) span.price_s::text').get() ebook = li.css('.price_e .price_n::text').get() dit = { '标题': title, '推荐': comment, '评价': recommend, '作者': author, '出版日期': date, '出版社': press, '原价': price_r, '售价': price_n, '折扣': price_s, '电子书价格': ebook, '详情页': href, } csv_writer.writerow(dit)

import time import csv import pandas as pd from selenium import webdriver from selenium.webdriver import Chrome,ChromeOptions from selenium.webdriver.common.by import By # driver_path = r'C:\Program Files\Google\Chrome\Application\chrome.exe' driver = webdriver.Chrome() driver.get('https://www.jd.com/') def drop_down(): for x in range(1,9,2): time.sleep(1) j = x /9 js = 'document.documentElement.scrollTop = document.documentElement.scrollHeight * %f' % j driver.execute_script(js) driver.find_element(By.CSS_SELECTOR,'#key').send_keys('燕麦') driver.find_element(By.CSS_SELECTOR,'.button').click() f = open(f'B:\京东商品数据.csv', mode='a', encoding='gbk', newline='') csv_writer = csv.DictWriter(f, fieldnames=[ '商品标题', '商品价格', '店铺名字', '标签', '商品详情页', ]) csv_writer.writeheader() 商品信息 = [] def get_shop(): time.sleep(10) # driver.implicitly_wait(10) drop_down() lis = driver.find_elements(By.CSS_SELECTOR,'#J_goodsList ul li') for li in lis: title = li.find_element(By.CSS_SELECTOR,'.p-name em').text.replace('\n', '') price = li.find_element(By.CSS_SELECTOR,'.p-price strong i').text shop_name = li.find_element(By.CSS_SELECTOR,'.J_im_icon a').text href = li.find_element(By.CSS_SELECTOR,'.p-img a').get_attribute('href') icons = li.find_elements(By.CSS_SELECTOR,'.p-icons i') icon = ','.join([i.text for i in icons]) dit = { '商品标题':title, '商品价格':price, '店铺名字':shop_name, '标签':icon, '商品详情页':href, } csv_writer.writerow(dit) # print(title,price,href,icon,sep=' | ') for page in range(1,3): time.sleep(1) drop_down() get_shop() driver.find_element(By.CSS_SELECTOR,'.pn-next').click() driver.quit() # data = csv.reader(open('B:\京东商品数据.csv'),delimiter=',') # sortedl = sorted(data,key=lambda x:(x[0],x[1]),reverse=True) # print('最贵的商品信息') # print(sortedl) # with open('B:\京东商品数据.csv','r',encoding='gbk') as f: # f_csv = csv.reader(f) # max_price = 0 # next(f_csv) # for row in f_csv: # if row[1].isdigit() and int(row[1]) > max_price: # max_price = int(row[1]) # print(max_price) with open('B:\京东商品数据.csv', 'r') as file: reader = csv.reader(file) header =next(reader) next(reader) max_price = float('-inf') for row in reader: num = float(row[1]) if num > max_price: max_price = num item = row[0] name_0= row[2] print(item,max_price,name_0)程序中出现ValueError: could not convert string to float: '商品价格'解决方法

优化下面的代码:import requests import csv f = open('23、雪球股票.csv',mode='w',newline='',encoding='utf-8') w_header = csv.DictWriter(f, fieldnames= ['股票代码', '股票名称', '当前价', '涨跌额', '涨跌幅', '年初至今', '成交量', '成交额','换手率','市盈率','股息率','市值']) w_header.writeheader() url = 'https://xueqiu.com/hq#type=sha&exchange=CN&firstName=%E6%B2%AA%E6%B7%B1%E8%82%A1%E5%B8%82&secondName=%E6%8E%92%E8%A1%8C&market=CN&order=desc&order_by=percent&plate=%E6%B2%AAA%E6%B6%A8%E5%B9%85%E6%A6%9C' headers = { "accept": "application/json, text/plain, */*", "accept-encoding": "gzip, deflate, br", "accept-language": "zh-CN,zh;q=0.9,en;q=0.8,en-GB;q=0.7,en-US;q=0.6", "cache-control": "no-cache", "cookie": "联络互动", "origin": "https://xueqiu.com", "pragma": "no-cache", "referer": "https://xueqiu.com/hq", "sec-ch-ua": "\"Chromium\";v=\"110\", \"Not A(Brand\";v=\"24\", \"Microsoft Edge\";v=\"110\"", "sec-ch-ua-mobile": "?0", "sec-ch-ua-platform": "\"Windows\"", "sec-fetch-dest": "empty", "sec-fetch-mode": "cors", "sec-fetch-site": "same-site", "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/110.0.0.0 Safari/537.36 Edg/110.0.1587.46" } res = requests.get(url=url,headers=headers) json_data = res.json() lis = json_data['data']['list'] dit = {} for i in lis: dit['股票代码'] = i['symbol'] dit['股票名称'] = i['name'] dit['当前价'] = i['current'] dit['涨跌额'] = i['chg'] dit['涨跌幅'] = i['percent'] dit['年初至今'] = i['current_year_percent'] dit['成交量'] = i['volume'] dit['成交额'] = i['amount'] dit['换手率'] = i['turnover_rate'] dit['市盈率'] = i['pe_ttm'] dit['股息率'] = i['dividend_yield'] dit['市值'] = i['float_market_capital'] # print(dit) w_header.writerow(dit) print('保存完成!')

最新推荐

recommend-type

####这是一篇对python的详细解析

python
recommend-type

菜日常菜日常菜日常菜日常

菜日常菜日常菜日常菜日常
recommend-type

VB学生档案管理系统设计(源代码+论文).rar

计算机专业毕业设计VB精品论文资源
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

MATLAB柱状图在信号处理中的应用:可视化信号特征和频谱分析

![matlab画柱状图](https://img-blog.csdnimg.cn/3f32348f1c9c4481a6f5931993732f97.png) # 1. MATLAB柱状图概述** MATLAB柱状图是一种图形化工具,用于可视化数据中不同类别或组的分布情况。它通过绘制垂直条形来表示每个类别或组中的数据值。柱状图在信号处理中广泛用于可视化信号特征和进行频谱分析。 柱状图的优点在于其简单易懂,能够直观地展示数据分布。在信号处理中,柱状图可以帮助工程师识别信号中的模式、趋势和异常情况,从而为信号分析和处理提供有价值的见解。 # 2. 柱状图在信号处理中的应用 柱状图在信号处理
recommend-type

用Spring boot和vue写一个登录注册界面

好的,这是一个比较常见的技术问题,我可以为您提供一些参考资料和思路。首先,您可以使用Spring Boot作为后端框架来处理用户认证和注册的逻辑,比如使用Spring Security实现用户登录认证。同时,您还需要设计相应的数据模型和数据库表结构来存储用户信息。在前端方面,您可以使用Vue.js作为框架来构建登录注册页面,使用Axios来发起API请求并和后端进行交互。当然,在实现过程中,还需要考虑一些具体细节,比如数据校验、安全性和用户体验等方面。希望这些信息能够帮助到您。
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

MATLAB柱状图在数据分析中的作用:从可视化到洞察

![MATLAB柱状图在数据分析中的作用:从可视化到洞察](https://img-blog.csdnimg.cn/img_convert/1a36558cefc0339f7836cca7680c0aef.png) # 1. MATLAB柱状图概述** 柱状图是一种广泛用于数据可视化的图表类型,它使用垂直条形来表示数据中不同类别或组别的值。在MATLAB中,柱状图通过`bar`函数创建,该函数接受数据向量或矩阵作为输入,并生成相应的高度条形。 柱状图的优点在于其简单性和易于理解性。它们可以快速有效地传达数据分布和组别之间的比较。此外,MATLAB提供了广泛的定制选项,允许用户调整条形颜色、