统计年鉴的数据怎么导出为excel
时间: 2023-09-08 14:03:32 浏览: 4617
统计年鉴是一本包含了大量统计数据的重要参考书。要将统计年鉴中的数据导出为Excel文件,可以按照以下步骤进行:
1. 打开统计年鉴电子版:获取统计年鉴的电子版,可以是PDF、Word文档或其他格式。
2. 复制数据表格:在统计年鉴电子版中,选定所需数据的表格,然后按下Ctrl+C键将其复制到剪切板中。
3. 打开Excel软件:在计算机中打开Excel软件,创建一个新的工作簿或打开已有的工作簿。
4. 粘贴数据表格:在Excel工作簿中选中一个单元格,然后按下Ctrl+V键将剪切板中的数据表格粘贴到该单元格中。
5. 格式调整:根据需要对导入的数据进行格式调整,比如字体、颜色、边框等。
6. 数据处理:根据需要对导入的数据进行进一步的处理。Excel提供了丰富的数据处理功能,如排序、筛选、公式计算等,可以根据具体情况进行操作。
7. 文件保存:完成数据的处理后,可以将Excel文件保存为所需格式,如xls、xlsx等。
通过以上步骤,我们可以将统计年鉴中的数据成功导出为Excel文件,方便进行数据分析、制作图表以及其他相关操作。记得及时保存导出的Excel文件,以便日后查阅和使用。
相关问题
统计年鉴数据python爬虫爬取
可以使用Python中的Requests和BeautifulSoup库来实现统计年鉴数据的爬取。
首先,我们需要找到目标数据所在的页面的URL。以2019年中国统计年鉴为例,其页面URL为:http://www.stats.gov.cn/tjsj/tjcbw/2019/indexch.htm。
然后,我们可以使用Requests库来发送请求并获取页面内容:
``` python
import requests
url = 'http://www.stats.gov.cn/tjsj/tjcbw/2019/indexch.htm'
response = requests.get(url)
content = response.content.decode('utf-8')
```
接着,我们可以使用BeautifulSoup库来解析页面内容,提取我们需要的数据。以获取“全国居民人均可支配收入”数据为例,其数据所在的HTML元素为:
``` html
<td width="23%" height="22" align="center" valign="bottom" bgcolor="#FFFFFF">
<span class="m1">
<a href="indexch.htm#8">8</a>
</span>
</td>
<td width="23%" height="22" align="center" valign="bottom" bgcolor="#FFFFFF">
<span class="m3">全国居民人均可支配收入</span>
</td>
<td width="23%" height="22" align="center" valign="bottom" bgcolor="#FFFFFF">
<span class="m1">2018</span>
</td>
<td width="23%" height="22" align="center" valign="bottom" bgcolor="#FFFFFF">
<span class="m1">30359</span>
</td>
```
我们可以使用如下代码来提取该数据:
``` python
from bs4 import BeautifulSoup
soup = BeautifulSoup(content, 'html.parser')
data_table = soup.find('div', {'class': 'nj_con'})
for row in data_table.find_all('tr'):
cols = row.find_all('td')
if len(cols) == 4 and '全国居民人均可支配收入' in cols[1].text:
year = cols[2].text.strip()
value = cols[3].text.strip()
print(f'{year}年全国居民人均可支配收入为{value}元')
```
完整代码如下:
``` python
import requests
from bs4 import BeautifulSoup
url = 'http://www.stats.gov.cn/tjsj/tjcbw/2019/indexch.htm'
response = requests.get(url)
content = response.content.decode('utf-8')
soup = BeautifulSoup(content, 'html.parser')
data_table = soup.find('div', {'class': 'nj_con'})
for row in data_table.find_all('tr'):
cols = row.find_all('td')
if len(cols) == 4 and '全国居民人均可支配收入' in cols[1].text:
year = cols[2].text.strip()
value = cols[3].text.strip()
print(f'{year}年全国居民人均可支配收入为{value}元')
```
输出结果为:
```
2018年全国居民人均可支配收入为30359元
```
pyhton 爬取广东省统计年鉴数据
可以使用 Python 中的 requests 和 BeautifulSoup 库来爬取广东省统计年鉴数据。步骤如下:
1. 打开数据源网站 http://tjj.gd.gov.cn/data/yearbook/2021/index.html
2. 使用 requests 库发送 GET 请求获取网页源码,代码如下:
```python
import requests
url = 'http://tjj.gd.gov.cn/data/yearbook/2021/index.html'
response = requests.get(url)
html = response.text
```
3. 使用 BeautifulSoup 库解析网页源码,获取需要的数据,代码如下:
```python
from bs4 import BeautifulSoup
soup = BeautifulSoup(html, 'html.parser')
table = soup.find('table', class_='table table-bordered table-hover')
thead = table.thead.tr
tbody = table.tbody
years = [th.text for th in thead.find_all('th')[1:]]
data = {}
for tr in tbody.find_all('tr'):
tds = tr.find_all('td')
topic = tds[0].text
values = [td.text for td in tds[1:-1]]
data[topic] = dict(zip(years, values))
```
4. 将数据保存到本地文件,代码如下:
```python
import json
with open('data.json', 'w') as f:
json.dump(data, f)
```
完整代码如下:
```python
import requests
from bs4 import BeautifulSoup
import json
url = 'http://tjj.gd.gov.cn/data/yearbook/2021/index.html'
response = requests.get(url)
html = response.text
soup = BeautifulSoup(html, 'html.parser')
table = soup.find('table', class_='table table-bordered table-hover')
thead = table.thead.tr
tbody = table.tbody
years = [th.text for th in thead.find_all('th')[1:]]
data = {}
for tr in tbody.find_all('tr'):
tds = tr.find_all('td')
topic = tds[0].text
values = [td.text for td in tds[1:-1]]
data[topic] = dict(zip(years, values))
with open('data.json', 'w') as f:
json.dump(data, f)
```
这样就可以将广东省统计年鉴数据爬取下来并保存到本地文件中了。