Python入门到脱坑经典案例—列表去重

Python入门到脱坑经典案例—列表去重列表去重是 Python 编程中常见的操作 下面我将介绍多种实现列表去重的方法 从基础到进阶 帮助初学者全面掌握这一技能

欢迎大家来到IT世界,在知识的湖畔探索吧!

列表去重是Python编程中常见的操作,下面我将介绍多种实现列表去重的方法,从基础到进阶,帮助初学者全面掌握这一技能。

方法一:使用集合(set)去重(最简单)

python

def remove_duplicates_set(lst): """使用集合去重(不保持原始顺序)""" return list(set(lst)) # 示例 original_list = [3, 5, 2, 3, 8, 5, 9, 2] result = remove_duplicates_set(original_list) print(f"原始列表: {original_list}") print(f"去重后: {result}")

欢迎大家来到IT世界,在知识的湖畔探索吧!

方法二:保持顺序的去重方法

欢迎大家来到IT世界,在知识的湖畔探索吧!def remove_duplicates_ordered(lst): """保持原始顺序的去重方法""" seen = set() return [x for x in lst if not (x in seen or seen.add(x))] # 示例 original_list = [3, 5, 2, 3, 8, 5, 9, 2] result = remove_duplicates_ordered(original_list) print(f"原始列表: {original_list}") print(f"保持顺序去重后: {result}")

方法三:使用字典键去重(Python 3.7+保持插入顺序)

def remove_duplicates_dict(lst): """使用字典键去重(Python 3.7+保持顺序)""" return list(dict.fromkeys(lst)) # 示例 original_list = ['apple', 'banana', 'apple', 'orange', 'banana'] result = remove_duplicates_dict(original_list) print(f"原始列表: {original_list}") print(f"字典键去重后: {result}")

方法四:使用enumerate和列表推导式

欢迎大家来到IT世界,在知识的湖畔探索吧!def remove_duplicates_enumerate(lst): """使用enumerate去重(保持顺序)""" return [x for i, x in enumerate(lst) if x not in lst[:i]] # 示例 original_list = [1, 2, 3, 2, 4, 3, 5] result = remove_duplicates_enumerate(original_list) print(f"原始列表: {original_list}") print(f"枚举去重后: {result}")

方法五:使用pandas库(适合大数据量)

import pandas as pd def remove_duplicates_pandas(lst): """使用pandas去重(保持顺序)""" return pd.unique(lst).tolist() # 示例 original_list = [10, 20, 30, 20, 40, 10, 50] result = remove_duplicates_pandas(original_list) print(f"原始列表: {original_list}") print(f"pandas去重后: {result}")

方法六:使用numpy库

欢迎大家来到IT世界,在知识的湖畔探索吧!import numpy as np def remove_duplicates_numpy(lst): """使用numpy去重(不保持顺序)""" return np.unique(lst).tolist() # 示例 original_list = [7, 5, 7, 3, 5, 9, 3] result = remove_duplicates_numpy(original_list) print(f"原始列表: {original_list}") print(f"numpy去重后: {result}")

方法七:处理复杂对象的去重(基于某个属性)

ef remove_duplicates_objects(lst, key=None): """复杂对象去重(基于某个属性)""" seen = set() return [x for x in lst if not (key(x) in seen or seen.add(key(x)))] # 示例 class Product: def __init__(self, id, name): self.id = id self.name = name def __repr__(self): return f"Product({self.id}, '{self.name}')" products = [ Product(1, "Apple"), Product(2, "Banana"), Product(1, "Apple"), Product(3, "Orange") ] result = remove_duplicates_objects(products, key=lambda x: x.id) print("原始产品列表:") for p in products: print(p) print("\n基于ID去重后:") for p in result: print(p)

方法八:使用itertools.groupby(需要先排序)

欢迎大家来到IT世界,在知识的湖畔探索吧!from itertools import groupby def remove_duplicates_groupby(lst): """使用groupby去重(需要先排序)""" lst.sort() return [key for key, _ in groupby(lst)] # 示例 original_list = [5, 3, 5, 2, 3, 8, 5] result = remove_duplicates_groupby(original_list) print(f"原始列表: {original_list}") print(f"groupby去重后: {result}")

性能比较

import timeit original_list = list(range(1000)) * 3 # 创建包含重复项的大列表 def test_set(): return list(set(original_list)) def test_ordered(): seen = set() return [x for x in original_list if not (x in seen or seen.add(x))] print("集合去重耗时:", timeit.timeit(test_set, number=1000)) print("保持顺序去重耗时:", timeit.timeit(test_ordered, number=1000))

总结

通过这个列表去重案例,我们学习了:

  1. 使用集合(set)快速去重(不保持顺序)
  2. 多种保持原始顺序的去重方法
  3. 处理复杂对象的去重技巧
  4. 使用第三方库(pandas/numpy)处理大数据量
  5. 不同方法的性能比较

选择哪种方法取决于具体需求:

  • 如果不需要保持顺序:set()最快
  • 需要保持顺序:dict.fromkeys()或列表推导式+集合
  • 处理复杂对象:基于属性的去重方法
  • 大数据量:考虑使用pandas或numpy

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://itzsg.com/128760.html

(0)
上一篇 2小时前
下一篇 1小时前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

联系我们YX

mu99908888

在线咨询: 微信交谈

邮件:itzsgw@126.com

工作时间:时刻准备着!

关注微信