python列表数据去重
时间: 2023-10-14 21:15:44 浏览: 39
可以使用set()函数将列表转换为集合,然后再将集合转换回列表即可去重。示例如下:
```python
my_list = [1, 2, 3, 3, 4, 5, 5, 6]
new_list = list(set(my_list))
print(new_list) # [1, 2, 3, 4, 5, 6]
```
如果需要保留原列表的顺序,可以使用列表推导式和判断语句去重,示例如下:
```python
my_list = [1, 2, 3, 3, 4, 5, 5, 6]
new_list = []
for i in my_list:
if i not in new_list:
new_list.append(i)
print(new_list) # [1, 2, 3, 4, 5, 6]
```
也可以使用Python中的内置函数groupby()对列表进行去重,示例如下:
```python
from itertools import groupby
my_list = [1, 2, 3, 3, 4, 5, 5, 6]
new_list = [k for k, g in groupby(my_list)]
print(new_list) # [1, 2, 3, 4, 5, 6]
```
以上三种方法均可对Python列表进行去重。
相关问题
python爬虫数据去重代码
以下是Python爬虫数据去重的代码示例:
```python
import hashlib
# 定义一个去重类
class Deduplication(object):
def __init__(self):
self.hash = set()
# 判断url是否重复
def is_duplicate(self, url):
fp = hashlib.sha1()
fp.update(url.encode('utf-8'))
url_sha1 = fp.hexdigest()
if url_sha1 in self.hash:
return True
else:
self.hash.add(url_sha1)
return False
```
使用示例:
```python
# 创建一个去重对象
dedup = Deduplication()
# 判断url是否重复
if dedup.is_duplicate(url):
print('该url已经被爬取过了')
else:
# 爬取该url
...
```
python pandas 数据去重
在Python中,使用pandas库可以很方便地进行数据去重操作。下面是三种常见的方法:
1. 使用`drop_duplicates`方法:这个方法适用于DataFrame格式的数据,可以去除指定列下的重复行。具体代码如下:
```python
import pandas as pd
# 读取数据
df = pd.read_excel('666.xlsx')
# 去重
df.drop_duplicates(subset=['ASIN'], keep='first', inplace=True)
# 打印去重后的数据
print(df)
```
引用自
2. 使用`drop_duplicates`方法:这个方法同样适用于DataFrame格式的数据。具体代码如下:
```python
import pandas as pd
# 读取数据
csv = pd.read_csv('E:/aaa/03.csv', low_memory=False, error_bad_lines=False)
df = pd.DataFrame(csv)
# 打印原始数据行数
print(df.shape)
# 去重
f = df.drop_duplicates(keep=False)
# 打印去重后的数据行数
print(f.shape)
# 将去重后的数据写入新文件
f.to_csv('E:/aaa/distionct_03.csv', index=None)
```
引用自
总结起来,以上两种方法都是使用pandas的`drop_duplicates`方法来进行数据去重。第一种方法是针对Excel文件,第二种方法是针对CSV文件。根据你的具体需求选择其中的一种方法即可。<span class="em">1</span><span class="em">2</span><span class="em">3</span>
#### 引用[.reference_title]
- *1* [pandas怎么去除数据中的重复值](https://blog.csdn.net/Leexin_love_Ling/article/details/114024136)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
- *2* *3* [python数据去重(pandas)](https://blog.csdn.net/qq_39012566/article/details/98633780)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"]
[ .reference_list ]