Python | Pandas Series.drop_duplicates ()

| | | | | | |

Series.drop_duplicates() Pandas Series.drop_duplicates() возвращает объект серии с повторяющимися значениями ‚ Äã‚Äãудален из этого объекта серии.

Синтаксис: Series.drop_duplicates (keep = `first`, inplace = False)

Параметр:
сохранять: {`first`, `last`, False}, по умолчанию `first`
на месте: Если True, выполняет операцию на месте и возвращает None.

Возвращает: дедуплицировано: Series

Пример № 1: Используйте Series.drop_duplicates () для удаления повторяющихся значений ‚Äã‚Äãиз этого объекта серии.


# импортировать панд как pd

импортировать pandas as pd


# Создать серию

sr = pd.Series ([ 80 , 25 , 3 , 25 , 24 , 6 ])


# Создать индекс

index_ = [ `Coca Cola` , `Sprite` , `Coke` , `Fanta` , `Роса` , ` ThumbsUp` ]


# установить индекс

sr.index = index_

< br> # Печать серии

print (sr)

Вывод:

Теперь мы будем использовать Series.drop_duplicates() для удаления повторяющихся значений ‚Äã‚Äãв базовых данных этого объекта серии.


# удалить дубликаты

результат = sr.drop_duplicates ()


# Печать повторно результат

print (результат)

Вывод:

Как видно из вывод, Series.drop_duplicates () успешно Series.drop_duplicates ( ) дублирует записи из этого объекта серии.

Пример № 2: Используйте Series.drop_duplicates() для удаления повторяющихся значений ‚Äã‚Äãиз этой серии объектов.


# импортировать панд как pd

импортировать панд как pd


# Создать серию

sr = pd.Series ([ 11 , 11 , 8 , 18 , 65 , 18 , 32 , 10 , 5 , 32 , 32 ])


# Создать индекс

index_ = стр. date_range ( `2010-10-09` , точки = 11 , freq = `M` )


# установить индекс

sr.index = index_


# Серия печатных страниц

print (sr)

Вывод:

Мы теперь будет использоваться Series.drop_duplicates() для удаления повторяющихся значений ‚Äã‚Äãв базовых данных этой серии obj т. д.


# удалить дубликаты

результат = sr.drop_duplicates ()


# Результат печати

print (результат)

Вывод:

Как мы видим в выводе, Series. drop_duplicates () успешно Series.drop_duplicates () дублирует записи из этого объекта серии.