将拼音转化为汉字 python 如:['changsha','hefei','kunming','fuzhou']
时间: 2023-09-05 20:09:06 浏览: 86
您可以使用 Python 中的字典来实现拼音到汉字的转换,例如:
```python
pinyin_dict = {
'changsha': '长沙',
'hefei': '合肥',
'kunming': '昆明',
'fuzhou': '福州'
}
pinyin_list = ['changsha', 'hefei', 'kunming', 'fuzhou']
for pinyin in pinyin_list:
print(pinyin_dict[pinyin])
```
输出结果为:
```
长沙
合肥
昆明
福州
```
这里我们把拼音和汉字的对应关系存放在了一个字典 `pinyin_dict` 中,然后遍历拼音列表 `pinyin_list`,通过字典查找将拼音转化为对应的汉字。
相关问题
34个省会的拼音汉字转化 pinyin_dict = { 'changsha': '长沙', 'hefei': '合肥', 'kunming': '昆明', 'fuzhou': '福州' }
可以使用类似下面的代码将所有省会的拼音转化为汉字:
```python
pinyin_dict = {
'beijing': '北京',
'tianjin': '天津',
'shanghai': '上海',
'chongqing': '重庆',
'haerbin': '哈尔滨',
'changchun': '长春',
'shenyang': '沈阳',
'huhehaote': '呼和浩特',
'shijiazhuang': '石家庄',
'taiyuan': '太原',
'xian': '西安',
'lanzhou': '兰州',
'xining': '西宁',
'yinchuan': '银川',
'chengdu': '成都',
'kunming': '昆明',
'guiyang': '贵阳',
'wuhan': '武汉',
'zhengzhou': '郑州',
'nanjing': '南京',
'hefei': '合肥',
'hangzhou': '杭州',
'fuzhou': '福州',
'nanchang': '南昌',
'jinan': '济南',
'changsha': '长沙',
'guangzhou': '广州',
'nanning': '南宁',
'haikou': '海口',
'taibei': '台北',
'aomen': '澳门',
'xianggang': '香港',
'tainan': '台南'
}
pinyin_list = ['beijing', 'tianjin', 'shanghai', 'chongqing', 'haerbin', 'changchun', 'shenyang', 'huhehaote', 'shijiazhuang', 'taiyuan', 'xian', 'lanzhou', 'xining', 'yinchuan', 'chengdu', 'kunming', 'guiyang', 'wuhan', 'zhengzhou', 'nanjing', 'hefei', 'hangzhou', 'fuzhou', 'nanchang', 'jinan', 'changsha', 'guangzhou', 'nanning', 'haikou', 'taibei', 'aomen', 'xianggang', 'tainan']
for pinyin in pinyin_list:
print(pinyin_dict[pinyin])
```
输出结果为:
```
北京
天津
上海
重庆
哈尔滨
长春
沈阳
呼和浩特
石家庄
太原
西安
兰州
西宁
银川
成都
昆明
贵阳
武汉
郑州
南京
合肥
杭州
福州
南昌
济南
长沙
广州
南宁
海口
台北
澳门
香港
台南
```
python 美团民宿爬虫
以下是一个简单的Python美团民宿爬虫的例子:
```python
import requests
from bs4 import BeautifulSoup
import re
# 设置请求头
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'}
# 设置请求参数
params = {
'cityId': '1',
'start': '0',
'end': '20'
}
# 发送请求
response = requests.get('https://www.meituan.com/jiudian/changsha/', headers=headers, params=params)
# 解析HTML
soup = BeautifulSoup(response.text, 'html.parser')
# 获取民宿详情链接
links = soup.findAll("a", attrs={"class": re.compile("link.*?detail-more.*?")})
for link in links:
print(link['href'])
# 获取城市信息
spans = soup.findAll("span", attrs={"class": "cities"})
for span in spans:
print(span.text)
```
该爬虫使用requests库发送HTTP请求,使用BeautifulSoup库解析HTML。它从美团网站上获取长沙市的前20个民宿的详情链接和城市信息。
--相关问题--:
1. 如何使用Python爬取其他城市的民宿信息?
2. 如何将爬取到的数据保存到本地文件中?
3.
相关推荐
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)