Таблица частот для одной переменной

97

Последний вопрос новичков, панд на день: как мне создать таблицу для одной серии?

Например:

my_series = pandas.Series([1,2,2,3,3,3])
pandas.magical_frequency_function( my_series )

>> {
     1 : 1,
     2 : 2, 
     3 : 3
   }

Много поисков в Google привело меня к Series.describe () и pandas.crosstabs, но ни один из них не делает то, что мне нужно: одна переменная, учитываемая по категориям. Да, и было бы неплохо, если бы он работал для разных типов данных: строк, целых чисел и т. Д.

Абэ
источник

Ответы:

153

Может быть .value_counts()?

>>> import pandas
>>> my_series = pandas.Series([1,2,2,3,3,3, "fred", 1.8, 1.8])
>>> my_series
0       1
1       2
2       2
3       3
4       3
5       3
6    fred
7     1.8
8     1.8
>>> counts = my_series.value_counts()
>>> counts
3       3
2       2
1.8     2
fred    1
1       1
>>> len(counts)
5
>>> sum(counts)
9
>>> counts["fred"]
1
>>> dict(counts)
{1.8: 2, 2: 2, 3: 3, 1: 1, 'fred': 1}
DSM
источник
5
.value_counts().sort_index(1), чтобы первый столбец не мог немного выйти из строя
smci
9
Есть ли аналог для DataFrame, а не для серии? Я попробовал запустить .value_counts () на df и получилAttributeError: 'DataFrame' object has no attribute 'value_counts'
Mittenchops
1
Есть ли простой способ преобразовать эти числа в пропорции?
dsaxton
7
@dsaxton вы можете использовать .value_counts (normalize = True) для преобразования результатов в пропорции
Max Power
2
Для того, чтобы использовать это на dataframe вместо преобразования в него эквивалентно 1-D представлении NumPy массива, как - pd.value_counts(df.values.ravel())которая возвращает ряд, indexи valuesатрибуты содержат уникальные элементы и их подсчет соответственно.
Nickil Maveli
11

Вы можете использовать понимание списка в кадре данных для подсчета частот столбцов как таковых

[my_series[c].value_counts() for c in list(my_series.select_dtypes(include=['O']).columns)]

Сломать:

my_series.select_dtypes(include=['O']) 

Выбирает только категориальные данные

list(my_series.select_dtypes(include=['O']).columns) 

Превращает столбцы сверху в список

[my_series[c].value_counts() for c in list(my_series.select_dtypes(include=['O']).columns)] 

Итерирует по списку выше и применяет value_counts () к каждому из столбцов.

Шанкар АРУЛ - jupyterdata.com
источник
5

Ответ, предоставленный @DSM, прост и понятен, но я подумал, что добавлю свой собственный вклад в этот вопрос. Если вы посмотрите на код pandas.value_counts , вы увидите, что там много чего происходит.

Если вам нужно рассчитать частоту множества серий, это может занять некоторое время. Более быстрой реализацией было бы использование numpy.unique сreturn_counts = True

Вот пример:

import pandas as pd
import numpy as np

my_series = pd.Series([1,2,2,3,3,3])

print(my_series.value_counts())
3    3
2    2
1    1
dtype: int64

Обратите внимание, что возвращенный элемент - это панды.

Для сравнения numpy.uniqueвозвращает кортеж с двумя элементами: уникальными значениями и счетчиками.

vals, counts = np.unique(my_series, return_counts=True)
print(vals, counts)
[1 2 3] [1 2 3]

Затем вы можете объединить их в словарь:

results = dict(zip(vals, counts))
print(results)
{1: 1, 2: 2, 3: 3}

А затем в pandas.Series

print(pd.Series(results))
1    1
2    2
3    3
dtype: int64
Джон
источник
0

для частотного распределения переменной с чрезмерными значениями вы можете свернуть значения в классах,

Здесь я завышал значения employrateпеременной, и нет никакого смысла в ее частотном распределении с прямымvalues_count(normalize=True)

                country  employrate alcconsumption
0           Afghanistan   55.700001            .03
1               Albania   11.000000           7.29
2               Algeria   11.000000            .69
3               Andorra         nan          10.17
4                Angola   75.699997           5.57
..                  ...         ...            ...
208             Vietnam   71.000000           3.91
209  West Bank and Gaza   32.000000               
210         Yemen, Rep.   39.000000             .2
211              Zambia   61.000000           3.56
212            Zimbabwe   66.800003           4.96

[213 rows x 3 columns]

частотное распределение values_count(normalize=True)без классификации, длина результата здесь 139 (кажется бессмысленной как частотное распределение):

print(gm["employrate"].value_counts(sort=False,normalize=True))

50.500000   0.005618
61.500000   0.016854
46.000000   0.011236
64.500000   0.005618
63.500000   0.005618

58.599998   0.005618
63.799999   0.011236
63.200001   0.005618
65.599998   0.005618
68.300003   0.005618
Name: employrate, Length: 139, dtype: float64

Ставя классификацию, мы ставим все значения с определенным диапазоном т.е.

0-10 как 1,
11-20 как 2  
21-30 как 3 и так далее.
gm["employrate"]=gm["employrate"].str.strip().dropna()  
gm["employrate"]=pd.to_numeric(gm["employrate"])
gm['employrate'] = np.where(
   (gm['employrate'] <=10) & (gm['employrate'] > 0) , 1, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=20) & (gm['employrate'] > 10) , 1, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=30) & (gm['employrate'] > 20) , 2, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=40) & (gm['employrate'] > 30) , 3, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=50) & (gm['employrate'] > 40) , 4, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=60) & (gm['employrate'] > 50) , 5, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=70) & (gm['employrate'] > 60) , 6, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=80) & (gm['employrate'] > 70) , 7, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=90) & (gm['employrate'] > 80) , 8, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=100) & (gm['employrate'] > 90) , 9, gm['employrate']
   )
print(gm["employrate"].value_counts(sort=False,normalize=True))

после классификации мы имеем четкое частотное распределение. здесь мы легко можем видеть, что 37.64%из стран, где уровень занятости между 51-60% и 11.79%из стран, уровень занятости между71-80%

5.000000   0.376404
7.000000   0.117978
4.000000   0.179775
6.000000   0.264045
8.000000   0.033708
3.000000   0.028090
Name: employrate, dtype: float64
Харшит Джайн
источник