python去重txt首列重复
时间: 2023-07-17 21:07:03 浏览: 108
你可以使用Python来去重txt文件中首列重复的内容。首先,你需要读取txt文件并将首列的内容提取出来。然后,你可以使用集合(set)来去除重复的内容。最后,将去重后的内容写回到txt文件中。下面是一个示例代码:
```python
def remove_duplicate_first_column(filename):
unique_lines = set() # 用于存储去重后的内容
with open(filename, 'r') as file:
for line in file:
first_column = line.split()[0] # 提取首列内容
unique_lines.add(first_column) # 将首列内容添加到集合中
with open(filename, 'w') as file:
for line in unique_lines:
file.write(line + '\n') # 将去重后的内容写回文件
# 示例用法
filename = 'input.txt' # 替换为你的txt文件路径
remove_duplicate_first_column(filename)
```
请注意,这个示例假设txt文件中的列是通过空格分隔的。如果你的文件格式不同,请适当修改代码以适应你的文件格式。
阅读全文