pd.DataFrame.from_dic

时间: 2023-11-03 07:56:53 浏览: 48
pd.DataFrame.from_dic方法是不存在的,我犯了个错误,非常抱歉。要将字典拆分为DataFrame,您可以使用以下方法: ```python import pandas as pd # 定义字典 dictionary = {10000626: ['210964244', '210357576'], 10000744: ['320257863'], 10000762: ['210864888', '320082031']} # 创建空的DataFrame df = pd.DataFrame(columns=['key', 'values']) # 遍历字典并将键和值添加到DataFrame中 for key, values in dictionary.items(): for value in values: df = df.append({'key': key, 'values': value}, ignore_index=True) # 打印DataFrame print(df) ``` 这将输出以下DataFrame: ``` key values 0 10000626 210964244 1 10000626 210357576 2 10000744 320257863 3 10000762 210864888 4 10000762 320082031 ``` 每个字典键和对应的值都被拆分为单独的行,并以"key"和"values"作为列名。
相关问题

import numpy as np import pandas as pd from wordcloud import WordCloud, ImageColorGenerator import matplotlib.pyplot as plt from PIL import Image def draw_cloud(read_name): image = Image.open('/Users/zhoulexin/downloads/学者.png') # 作为背景轮廓图 graph = np.array(image) # 参数分别是指定字体、背景颜色、最大的词的大小、使用给定图作为背景形状 wc = WordCloud(font_path='System/Library/Fonts/Supplemental/Arial Unicode.ttf', background_color='black', max_words=100, mask=graph) fp = pd.read_csv(read_name, encoding='gb18030') # 读取词频文件, 因为要显示中文,故编码为gbk name = list(fp.name) # 词 value = fp.val # 词的频率 for i in range(len(name)): name[i] = str(name[i]) dic = dict(zip(name, value)) # 词频以字典形式存储 wc.generate_from_frequencies(dic) # 根据给定词频生成词云 image_color = ImageColorGenerator(graph) plt.imshow(wc) plt.axis("off") # 不显示坐标轴 plt.show() wc.to_file('scholar词云.png') # 图片命名 if __name__ == '__main__': draw_cloud("/Users/zhoulexin/downloads/李学龙.csv")本段代码报错为AttributeError: 'DataFrame' object has no attribute 'name'如何修改

在这段代码中,DataFrame对象没有"name"这个属性,所以代码会报错。你需要将下面的代码: ``` name = list(fp.name) # 词 ``` 修改为: ``` name = list(fp["name"]) # 词 ``` 这样就可以获取到"name"这一列的数据了。

帮我将以下代码写注释# coding=gbk # -- coding:uft-8 -- # 贝壳网小区 import requests from lxml import etree from time import sleep import hashlib from urllib import parse import pandas as pd def getPosi(tar): try: ak = 'C8rQZy1askzzMtdY3ChAZUer1P0PRjI0' sk = 'shShi1VLCkH1gGR4v75d2LTnrn2Vm5Mg' add = f'/geocoding/v3/?address={tar}&output=json&ak={ak}&city=大连市' add = parse.quote(add, safe="/:=&?#+!$,;'@()*[]") sn = hashlib.md5(parse.quote_plus(add + sk).encode('utf-8')).hexdigest() url = f'https://api.map.baidu.com{add}&sn={sn}' dic = requests.get(url).json() lat = dic['result']['location']['lat'] lng = dic['result']['location']['lng'] return lat, lng except: return None, None def collect(): items = { 'ganjingzi': 22, 'zhongshan': 19, 'shahekou': 14, 'xigang': 12 } resLs = [] for key in items: for page in range(items[key]): page += 1 url = f'https://dl.ke.com/xiaoqu/{key}/pg{page}/' headers = { 'User-Agent': ua, 'Referer': url } while True: try: res = requests.get(url=url, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) for li in tree.xpath('//ul[@class="listContent"]/li'): href = li.xpath('./a/@href')[0] while True: try: res = requests.get(url=href, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) dic = { 'href': href, 'key': key, 'name': tree.xpath('//h1/@title')[0], 'price': (tree.xpath('//span[@class="xiaoquUnitPrice"]/text()') + [''])[0], 'property': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[1].strip(), 'building': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[4].strip(), 'house': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[5].strip() } dic['lat'], dic['lng'] = getPosi(dic['name']) print(dic) resLs.append(dic) sleep(3) df = pd.DataFrame(resLs) df.to_excel('贝壳网小区.xlsx', encoding='utf-8', index=False) if name == 'main': ua = 'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/91.0.4472.106Safari/537.36' collect()

# coding=gbk # 设置文件编码为 gbk # -- coding:uft-8 -- # 设置文件编码为 utf-8 # 贝壳网小区 # 注释,说明文件内容为贝壳网小区相关代码 import requests # 导入 requests 模块 from lxml import etree # 导入 lxml 中的 etree 模块 from time import sleep # 导入 time 模块中的 sleep 函数 import hashlib # 导入 hashlib 模块 from urllib import parse # 导入 urllib 中的 parse 模块 import pandas as pd # 导入 pandas 模块 # 定义获取位置信息的函数 def getPosi(tar): try: ak = 'C8rQZy1askzzMtdY3ChAZUer1P0PRjI0' # 百度地图开放平台中的AK sk = 'shShi1VLCkH1gGR4v75d2LTnrn2Vm5Mg' # 百度地图开放平台中的SK add = f'/geocoding/v3/?address={tar}&output=json&ak={ak}&city=大连市' # 构造请求地址 add = parse.quote(add, safe="/:=&?#+!$,;'@()*[]") # 对地址进行URL编码 sn = hashlib.md5(parse.quote_plus(add + sk).encode('utf-8')).hexdigest() # 对地址进行签名 url = f'https://api.map.baidu.com{add}&sn={sn}' # 构造完整的请求URL dic = requests.get(url).json() # 发送请求,获取位置信息 lat = dic['result']['location']['lat'] # 获取纬度 lng = dic['result']['location']['lng'] # 获取经度 return lat, lng # 返回位置信息中的纬度与经度 except: return None, None # 若获取位置信息失败,则返回 None # 定义数据收集函数 def collect(): # 定义小区名称与页数的字典 items = { 'ganjingzi': 22, 'zhongshan': 19, 'shahekou': 14, 'xigang': 12 } resLs = [] # 定义空列表,用于存储收集到的数据 for key in items: # 遍历小区名称与页数的字典 for page in range(items[key]): # 遍历每个小区的每一页 page += 1 # 页码从1开始 url = f'https://dl.ke.com/xiaoqu/{key}/pg{page}/' # 构造请求URL headers = { 'User-Agent': ua, # 设置请求头中的User-Agent 'Referer': url # 设置请求头中的Referer } while True: # 循环发送请求,直到成功或超时 try: res = requests.get(url=url, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) # 解析HTML文本 for li in tree.xpath('//ul[@class="listContent"]/li'): # 遍历每个小区的信息块 href = li.xpath('./a/@href')[0] # 获取小区详情页的URL while True: # 循环发送请求,直到成功或超时 try: res = requests.get(url=href, headers=headers, timeout=(5, 5)).content.decode('utf-8') break except: print('again') tree = etree.HTML(res) # 解析HTML文本 dic = { # 构造数据字典 'href': href, # 小区详情页的URL 'key': key, # 小区名称 'name': tree.xpath('//h1/@title')[0], # 小区名称 'price': (tree.xpath('//span[@class="xiaoquUnitPrice"]/text()') + [''])[0], # 房价 'property': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[1].strip(), # 物业类型 'building': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[4].strip(), # 建筑年代 'house': tree.xpath('//span[@class="xiaoquInfoContent"]/text()')[5].strip() # 房屋总数 } dic['lat'], dic['lng'] = getPosi(dic['name']) # 获取小区位置信息 print(dic) # 输出小区信息 resLs.append(dic) # 将小区信息添加到列表中 sleep(3) # 休眠3秒,防止请求过于频繁 df = pd.DataFrame(resLs) # 将列表中的数据转换为DataFrame格式 df.to_excel('贝壳网小区.xlsx', encoding='utf-8', index=False) # 将DataFrame中的数据保存为Excel文件 if name == 'main': # 如果文件被直接执行,则执行以下代码块 ua = 'Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/91.0.4472.106Safari/537.36' # 设置请求头中的User-Agent collect() # 调用数据收集函数

相关推荐

最新推荐

recommend-type

基于SSM+JSP的企业人事管理信息系统毕业设计(源码+录像+说明).rar

基于SSM+JSP的企业人事管理信息系统毕业设计(源码+录像+说明).rar 【项目技术】 开发语言:Java 框架:ssm+jsp 架构:B/S 数据库:mysql 【演示视频-编号:420】 https://pan.quark.cn/s/b3a97032fae7 【实现功能】 实现了员工基础数据的管理,考勤管理,福利管理,薪资管理,奖惩管理,考核管理,培训管理,招聘管理,公告管理,基础数据管理等功能。
recommend-type

node-v6.12.0-linux-ppc64le.tar.xz

Node.js,简称Node,是一个开源且跨平台的JavaScript运行时环境,它允许在浏览器外运行JavaScript代码。Node.js于2009年由Ryan Dahl创立,旨在创建高性能的Web服务器和网络应用程序。它基于Google Chrome的V8 JavaScript引擎,可以在Windows、Linux、Unix、Mac OS X等操作系统上运行。 Node.js的特点之一是事件驱动和非阻塞I/O模型,这使得它非常适合处理大量并发连接,从而在构建实时应用程序如在线游戏、聊天应用以及实时通讯服务时表现卓越。此外,Node.js使用了模块化的架构,通过npm(Node package manager,Node包管理器),社区成员可以共享和复用代码,极大地促进了Node.js生态系统的发展和扩张。 Node.js不仅用于服务器端开发。随着技术的发展,它也被用于构建工具链、开发桌面应用程序、物联网设备等。Node.js能够处理文件系统、操作数据库、处理网络请求等,因此,开发者可以用JavaScript编写全栈应用程序,这一点大大提高了开发效率和便捷性。 在实践中,许多大型企业和组织已经采用Node.js作为其Web应用程序的开发平台,如Netflix、PayPal和Walmart等。它们利用Node.js提高了应用性能,简化了开发流程,并且能更快地响应市场需求。
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

机器学习怎么将excel转为csv文件

机器学习是一种利用计算机算法和统计数据的方法来训练计算机来进行自动学习的科学,无法直接将excel文件转为csv文件。但是可以使用Python编程语言来读取Excel文件内容并将其保存为CSV文件。您可以使用Pandas库来读取Excel文件,并使用to_csv()函数将其保存为CSV格式。以下是代码示例: ```python import pandas as pd # 读取 Excel 文件 excel_data = pd.read_excel('example.xlsx') # 将数据保存为 CSV 文件 excel_data.to_csv('example.csv', index=
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

实现实时监控告警系统:Kafka与Grafana整合

![实现实时监控告警系统:Kafka与Grafana整合](https://imgconvert.csdnimg.cn/aHR0cHM6Ly9tbWJpei5xcGljLmNuL21tYml6X2pwZy9BVldpY3ladXVDbEZpY1pLWmw2bUVaWXFUcEdLT1VDdkxRSmQxZXB5R1lxaWNlUjA2c0hFek5Qc3FyRktudFF1VDMxQVl3QTRXV2lhSWFRMEFRc0I1cW1ZOGcvNjQw?x-oss-process=image/format,png) # 1.1 Kafka集群架构 Kafka集群由多个称为代理的服务器组成,这
recommend-type

写出一个拉格朗日多项式插值程序,并调用该函数做图

好的,以下是一个使用拉格朗日多项式进行插值的 Python 代码: ``` import numpy as np import matplotlib.pyplot as plt def lagrangeInterpolation(x, y, x_interp): """ 使用拉格朗日多项式进行插值 x: 已知点的 x 坐标数组 y: 已知点的 y 坐标数组 x_interp: 插值点的 x 坐标数组 """ n = len(x) m = len(x_interp) L = np.zeros([n, m]) fo