Вы можете использовать pandas.cut
:
bins = [0, 1, 5, 10, 25, 50, 100]
df['binned'] = pd.cut(df['percentage'], bins)
print (df)
percentage binned
0 46.50 (25, 50]
1 44.20 (25, 50]
2 100.00 (50, 100]
3 42.12 (25, 50]
bins = [0, 1, 5, 10, 25, 50, 100]
labels = [1,2,3,4,5,6]
df['binned'] = pd.cut(df['percentage'], bins=bins, labels=labels)
print (df)
percentage binned
0 46.50 5
1 44.20 5
2 100.00 6
3 42.12 5
Или numpy.searchsorted
:
bins = [0, 1, 5, 10, 25, 50, 100]
df['binned'] = np.searchsorted(bins, df['percentage'].values)
print (df)
percentage binned
0 46.50 5
1 44.20 5
2 100.00 6
3 42.12 5
... а затем value_counts
или groupby
и агрегировать size
:
s = pd.cut(df['percentage'], bins=bins).value_counts()
print (s)
(25, 50] 3
(50, 100] 1
(10, 25] 0
(5, 10] 0
(1, 5] 0
(0, 1] 0
Name: percentage, dtype: int64
s = df.groupby(pd.cut(df['percentage'], bins=bins)).size()
print (s)
percentage
(0, 1] 0
(1, 5] 0
(5, 10] 0
(10, 25] 0
(25, 50] 3
(50, 100] 1
dtype: int64
По умолчанию cut
возврат categorical
.
Series
такие методы, как Series.value_counts()
будут использовать все категории, даже если некоторые категории отсутствуют в данных, операции в категориальных .
bins = [0, 1, 5, 10, 25, 50, 100]
, могу я просто сказать, что создайте 5 ящиков, и он сократит их по средней ширине? например, у меня 110 записей, я хочу разрезать их на 5 ячеек по 22 записи в каждой ячейке.qcut
? linkdf.groupby(pd.cut(df['percentage'], bins=bins)).mean()
?Использование
numba
модуля для ускорения.В больших наборах данных (
500k >
)pd.cut
может быть довольно медленным для данных объединения.Я написал свою собственную функцию
numba
с помощью своевременной компиляции, которая примерно16x
быстрее:Необязательно: вы также можете сопоставить его с ячейками как строки:
Сравнение скорости :
источник