Разбить (взорвать) строку ввода в панде в кадре данных на отдельные строки

200

У меня есть, pandas dataframeв котором один столбец текстовых строк содержит значения, разделенные запятыми. Я хочу разделить каждое поле CSV и создать новую строку для каждой записи (предположим, что CSV чисты и должны быть разделены только на ','). Например, aдолжно стать b:

In [7]: a
Out[7]: 
    var1  var2
0  a,b,c     1
1  d,e,f     2

In [8]: b
Out[8]: 
  var1  var2
0    a     1
1    b     1
2    c     1
3    d     2
4    e     2
5    f     2

До сих пор я пробовал различные простые функции, но .applyметод, кажется, принимает только одну строку в качестве возвращаемого значения, когда она используется на оси, и я не могу приступить .transformк работе. Любые предложения будут высоко ценится!

Пример данных:

from pandas import DataFrame
import numpy as np
a = DataFrame([{'var1': 'a,b,c', 'var2': 1},
               {'var1': 'd,e,f', 'var2': 2}])
b = DataFrame([{'var1': 'a', 'var2': 1},
               {'var1': 'b', 'var2': 1},
               {'var1': 'c', 'var2': 1},
               {'var1': 'd', 'var2': 2},
               {'var1': 'e', 'var2': 2},
               {'var1': 'f', 'var2': 2}])

Я знаю, что это не сработает, потому что мы теряем метаданные DataFrame при прохождении через numpy, но это должно дать вам представление о том, что я пытался сделать:

def fun(row):
    letters = row['var1']
    letters = letters.split(',')
    out = np.array([row] * len(letters))
    out['var1'] = letters
a['idx'] = range(a.shape[0])
z = a.groupby('idx')
z.transform(fun)
Винсент
источник
2
другие решения на этой странице работают, но я нашел следующее короткое и эффективное. stackoverflow.com/questions/27263805/…
desaiankitb
1
Для тех, кто заходит на эту страницу и ищет решение, которое содержит несколько столбцов, взгляните на этот вопрос: stackoverflow.com/questions/17116814/…
Sos

Ответы:

81

Как насчет чего-то вроде этого:

In [55]: pd.concat([Series(row['var2'], row['var1'].split(','))              
                    for _, row in a.iterrows()]).reset_index()
Out[55]: 
  index  0
0     a  1
1     b  1
2     c  1
3     d  2
4     e  2
5     f  2

Тогда вам просто нужно переименовать столбцы

Чанг Ше
источник
1
Похоже, это сработает. Спасибо за вашу помощь! В целом, однако, есть ли предпочтительный подход к Split-Apply-Combine, где Apply возвращает фрейм данных произвольного размера (но согласованный для всех блоков), а Combine просто vstacks возвращенные DF?
Винсент
GroupBy.apply должен работать (я только что попробовал против мастера). Однако в этом случае вам не нужно проходить дополнительный этап группировки, поскольку вы генерируете данные по строкам, верно?
Чанг Ше
1
Привет ребят. Извините, что прыгнул в это так поздно, но интересно, нет ли лучшего решения для этого. Я пытаюсь поэкспериментировать с iterrows впервые, так как это похоже на билет. Я также смущен предложенным решением. Что означает "_"? Можете ли вы объяснить, как работает решение? --Thank вас
horatio1701d
11
Можно ли расширить решение до более чем двух столбцов?
horatio1701d
1
пожалуйста, проверьте этот векторизованный подход ...
MaxU
147

UPDATE2: более общая векторизованная функция, которая будет работать для нескольких normalи нескольких listстолбцов

def explode(df, lst_cols, fill_value='', preserve_index=False):
    # make sure `lst_cols` is list-alike
    if (lst_cols is not None
        and len(lst_cols) > 0
        and not isinstance(lst_cols, (list, tuple, np.ndarray, pd.Series))):
        lst_cols = [lst_cols]
    # all columns except `lst_cols`
    idx_cols = df.columns.difference(lst_cols)
    # calculate lengths of lists
    lens = df[lst_cols[0]].str.len()
    # preserve original index values    
    idx = np.repeat(df.index.values, lens)
    # create "exploded" DF
    res = (pd.DataFrame({
                col:np.repeat(df[col].values, lens)
                for col in idx_cols},
                index=idx)
             .assign(**{col:np.concatenate(df.loc[lens>0, col].values)
                            for col in lst_cols}))
    # append those rows that have empty lists
    if (lens == 0).any():
        # at least one list in cells is empty
        res = (res.append(df.loc[lens==0, idx_cols], sort=False)
                  .fillna(fill_value))
    # revert the original index order
    res = res.sort_index()
    # reset index if requested
    if not preserve_index:        
        res = res.reset_index(drop=True)
    return res

Демо-версия:

Несколько listстолбцов - все listстолбцы должны иметь одинаковое количество элементов в каждой строке:

In [134]: df
Out[134]:
   aaa  myid        num          text
0   10     1  [1, 2, 3]  [aa, bb, cc]
1   11     2         []            []
2   12     3     [1, 2]      [cc, dd]
3   13     4         []            []

In [135]: explode(df, ['num','text'], fill_value='')
Out[135]:
   aaa  myid num text
0   10     1   1   aa
1   10     1   2   bb
2   10     1   3   cc
3   11     2
4   12     3   1   cc
5   12     3   2   dd
6   13     4

сохранение исходных значений индекса:

In [136]: explode(df, ['num','text'], fill_value='', preserve_index=True)
Out[136]:
   aaa  myid num text
0   10     1   1   aa
0   10     1   2   bb
0   10     1   3   cc
1   11     2
2   12     3   1   cc
2   12     3   2   dd
3   13     4

Настроить:

df = pd.DataFrame({
 'aaa': {0: 10, 1: 11, 2: 12, 3: 13},
 'myid': {0: 1, 1: 2, 2: 3, 3: 4},
 'num': {0: [1, 2, 3], 1: [], 2: [1, 2], 3: []},
 'text': {0: ['aa', 'bb', 'cc'], 1: [], 2: ['cc', 'dd'], 3: []}
})

Столбец CSV:

In [46]: df
Out[46]:
        var1  var2 var3
0      a,b,c     1   XX
1  d,e,f,x,y     2   ZZ

In [47]: explode(df.assign(var1=df.var1.str.split(',')), 'var1')
Out[47]:
  var1  var2 var3
0    a     1   XX
1    b     1   XX
2    c     1   XX
3    d     2   ZZ
4    e     2   ZZ
5    f     2   ZZ
6    x     2   ZZ
7    y     2   ZZ

используя этот маленький трюк, мы можем преобразовать CSV-подобный столбец в listстолбец:

In [48]: df.assign(var1=df.var1.str.split(','))
Out[48]:
              var1  var2 var3
0        [a, b, c]     1   XX
1  [d, e, f, x, y]     2   ZZ

ОБНОВЛЕНИЕ: универсальный векторизованный подход (будет работать также для нескольких столбцов):

Оригинальный DF:

In [177]: df
Out[177]:
        var1  var2 var3
0      a,b,c     1   XX
1  d,e,f,x,y     2   ZZ

Решение:

Сначала давайте конвертируем строки CSV в списки:

In [178]: lst_col = 'var1' 

In [179]: x = df.assign(**{lst_col:df[lst_col].str.split(',')})

In [180]: x
Out[180]:
              var1  var2 var3
0        [a, b, c]     1   XX
1  [d, e, f, x, y]     2   ZZ

Теперь мы можем сделать это:

In [181]: pd.DataFrame({
     ...:     col:np.repeat(x[col].values, x[lst_col].str.len())
     ...:     for col in x.columns.difference([lst_col])
     ...: }).assign(**{lst_col:np.concatenate(x[lst_col].values)})[x.columns.tolist()]
     ...:
Out[181]:
  var1  var2 var3
0    a     1   XX
1    b     1   XX
2    c     1   XX
3    d     2   ZZ
4    e     2   ZZ
5    f     2   ZZ
6    x     2   ZZ
7    y     2   ZZ

СТАРЫЙ ответ:

Вдохновленный решением @AFinkelstein , я хотел сделать его немного более обобщенным, который можно было бы применить к DF с более чем двумя столбцами и так же быстро, а почти так же быстро, как решение AFinkelstein):

In [2]: df = pd.DataFrame(
   ...:    [{'var1': 'a,b,c', 'var2': 1, 'var3': 'XX'},
   ...:     {'var1': 'd,e,f,x,y', 'var2': 2, 'var3': 'ZZ'}]
   ...: )

In [3]: df
Out[3]:
        var1  var2 var3
0      a,b,c     1   XX
1  d,e,f,x,y     2   ZZ

In [4]: (df.set_index(df.columns.drop('var1',1).tolist())
   ...:    .var1.str.split(',', expand=True)
   ...:    .stack()
   ...:    .reset_index()
   ...:    .rename(columns={0:'var1'})
   ...:    .loc[:, df.columns]
   ...: )
Out[4]:
  var1  var2 var3
0    a     1   XX
1    b     1   XX
2    c     1   XX
3    d     2   ZZ
4    e     2   ZZ
5    f     2   ZZ
6    x     2   ZZ
7    y     2   ZZ
MaxU
источник
7
чувак, если ты сможешь открыть дискуссию в Git pandas, я думаю, нам нужна встроенная функция, подобная этой !!! Я видел так много вопросов о том, как unlistify и unnesting в SO для панд
YOBEN_S
как использовать это для нескольких столбцов. Например, если у меня есть разделенные запятыми данные в 2 столбцах, и я хочу сделать это по порядку?
Яскаран Сингх Пури
@JaskaranSinghPuri, вы хотите сначала преобразовать все столбцы CSV в списки.
MaxU
1
К сожалению, это не работает, если ваши элементы списка являются кортежами. Но после преобразования всего кортежа в строку, он работает как шарм!
Гвидо
2
Похоже, что просьба WenBen была услышана богами панд, они установили .explode()метод в API (см. Также этот ответ ).
cs95
117

После мучительных экспериментов, чтобы найти что-то быстрее, чем принятый ответ, я заставил это работать. Он работал примерно в 100 раз быстрее на наборе данных, на котором я его пробовал.

Если кто-то знает способ сделать это более элегантным, непременно измените мой код. Я не мог найти способ, который бы работал, не устанавливая другие столбцы, которые вы хотите сохранить в качестве индекса, а затем сбрасывая индекс и переименовывая столбцы, но я думаю, что есть еще кое-что, что работает.

b = DataFrame(a.var1.str.split(',').tolist(), index=a.var2).stack()
b = b.reset_index()[[0, 'var2']] # var1 variable is currently labeled 0
b.columns = ['var1', 'var2'] # renaming var1
DMulligan
источник
2
Это решение работало значительно быстрее и, по-видимому, использует меньше памяти,
Кирилл
1
Это хорошее векторизованное решение для панд, я искал это. Спасибо!
Денис Голомазов
Когда я пробую это на своем собственном наборе данных, я продолжаю TypeError: object of type 'float' has no len()DataFrame(df.var1.str.split(',').tolist())
делать
@ user5359531 ваш набор данных, вероятно, содержит некоторые NaNв этом столбце, поэтому заменаb = DataFrame(a.var1.str.split(',').values.tolist(), index=a.var2).stack()
Flair
Просто хорошо, вот хорошее описание этого решения с примером.
hhbilly
46

Вот функция, которую я написал для этой общей задачи. Это более эффективно, чем Series/ stackметоды. Порядок и названия столбцов сохраняются.

def tidy_split(df, column, sep='|', keep=False):
    """
    Split the values of a column and expand so the new DataFrame has one split
    value per row. Filters rows where the column is missing.

    Params
    ------
    df : pandas.DataFrame
        dataframe with the column to split and expand
    column : str
        the column to split and expand
    sep : str
        the string used to split the column's values
    keep : bool
        whether to retain the presplit value as it's own row

    Returns
    -------
    pandas.DataFrame
        Returns a dataframe with the same columns as `df`.
    """
    indexes = list()
    new_values = list()
    df = df.dropna(subset=[column])
    for i, presplit in enumerate(df[column].astype(str)):
        values = presplit.split(sep)
        if keep and len(values) > 1:
            indexes.append(i)
            new_values.append(presplit)
        for value in values:
            indexes.append(i)
            new_values.append(value)
    new_df = df.iloc[indexes, :].copy()
    new_df[column] = new_values
    return new_df

С помощью этой функции исходный вопрос так же прост:

tidy_split(a, 'var1', sep=',')
Даниэль Химмельштейн
источник
1
Это невероятно быстро! Большое спасибо за это.
Анураг Н. Шарма
42

Панды> = 0,25

Методы Series и DataFrame определяют .explode()метод, который разбивает списки на отдельные строки. См. Раздел «Документы» в разделе « Взрыв столбца в виде списка» .

Поскольку у вас есть список строк, разделенных запятыми, разбейте строку на запятую, чтобы получить список элементов, а затем вызовите explodeэтот столбец.

df = pd.DataFrame({'var1': ['a,b,c', 'd,e,f'], 'var2': [1, 2]})
df
    var1  var2
0  a,b,c     1
1  d,e,f     2

df.assign(var1=df['var1'].str.split(',')).explode('var1')

  var1  var2
0    a     1
0    b     1
0    c     1
1    d     2
1    e     2
1    f     2

Обратите внимание, что explodeработает только на одном столбце (пока).


NaNs и пустые списки получают лечение, которого они заслуживают, без необходимости прыгать через обручи, чтобы сделать это правильно.

df = pd.DataFrame({'var1': ['d,e,f', '', np.nan], 'var2': [1, 2, 3]})
df
    var1  var2
0  d,e,f     1
1            2
2    NaN     3

df['var1'].str.split(',')

0    [d, e, f]
1           []
2          NaN

df.assign(var1=df['var1'].str.split(',')).explode('var1')

  var1  var2
0    d     1
0    e     1
0    f     1
1          2  # empty list entry becomes empty string after exploding 
2  NaN     3  # NaN left un-touched

Это серьезное преимущество по сравнению с решениями на основе ravel+repeat (которые полностью игнорируют пустые списки и подавляют NaN).

cs95
источник
4
Этот самый простой и подходит лучше всего в моем случае! Спасибо!
Исаак Сим
14

Подобный вопрос как: pandas: Как разделить текст в столбце на несколько строк?

Вы могли бы сделать:

>> a=pd.DataFrame({"var1":"a,b,c d,e,f".split(),"var2":[1,2]})
>> s = a.var1.str.split(",").apply(pd.Series, 1).stack()
>> s.index = s.index.droplevel(-1)
>> del a['var1']
>> a.join(s)
   var2 var1
0     1    a
0     1    b
0     1    c
1     2    d
1     2    e
1     2    f
inodb
источник
2
Это работает после добавления еще одного кода переименования s.name = 'var1'
Джесси
14

TL; DR

import pandas as pd
import numpy as np

def explode_str(df, col, sep):
    s = df[col]
    i = np.arange(len(s)).repeat(s.str.count(sep) + 1)
    return df.iloc[i].assign(**{col: sep.join(s).split(sep)})

def explode_list(df, col):
    s = df[col]
    i = np.arange(len(s)).repeat(s.str.len())
    return df.iloc[i].assign(**{col: np.concatenate(s)})

демонстрация

explode_str(a, 'var1', ',')

  var1  var2
0    a     1
0    b     1
0    c     1
1    d     2
1    e     2
1    f     2

Давайте создадим новый фрейм данных, dкоторый имеет списки

d = a.assign(var1=lambda d: d.var1.str.split(','))

explode_list(d, 'var1')

  var1  var2
0    a     1
0    b     1
0    c     1
1    d     2
1    e     2
1    f     2

Общие комментарии

Я буду использовать np.arangeс, repeatчтобы создать позиции индекса данных, которые я могу использовать iloc.

Вопросы-Ответы

Почему я не использую loc?

Поскольку индекс может быть не уникальным, и при использовании locбудет возвращаться каждая строка, соответствующая запрашиваемому индексу.

Почему бы вам не использовать valuesатрибут и нарезать его?

При вызове values, если полнота в dataframe в одну сплоченных «блоке», панды возвращают вид массива , который является «блоком». В противном случае Пандам придется собирать новый массив. При слипании этот массив должен иметь одинаковый тип d. Часто это означает возвращение массива с типом dtype object. Используяiloc вместо разрезания valuesатрибута, я избавляю себя от необходимости иметь дело с этим.

Почему вы используете assign ?

Когда я использую assign использую то же имя столбца, которое я раскрываю, я перезаписываю существующий столбец и сохраняю его положение в кадре данных.

Почему значения индекса повторяются?

Благодаря использованию ilocна повторяющихся позициях, результирующий индекс показывает тот же повторяющийся паттерн. Один повтор для каждого элемента списка или строки.
Это можно сбросить с помощьюreset_index(drop=True)


Для строк

Я не хочу преждевременно раскалывать струны. Поэтому вместо этого я считаю количество sepаргументов, предполагая, что если бы я разделил, длина результирующего списка была бы на один больше, чем число разделителей.

Я тогда использую это sepк joinстрокам тогда split.

def explode_str(df, col, sep):
    s = df[col]
    i = np.arange(len(s)).repeat(s.str.count(sep) + 1)
    return df.iloc[i].assign(**{col: sep.join(s).split(sep)})

Для списков

Аналогично для строк, за исключением того, что мне не нужно считать sep потому что он уже разделен.

Я использую Numpy concatenateдля склеивания списков.

import pandas as pd
import numpy as np

def explode_list(df, col):
    s = df[col]
    i = np.arange(len(s)).repeat(s.str.len())
    return df.iloc[i].assign(**{col: np.concatenate(s)})

piRSquared
источник
Мне нравится этот. Действительно сжатый и производительность должна быть действительно хорошей. Один вопрос, хотя: df.iloc [i] - это то же самое, что повторяющиеся строки кадра данных, или это более эффективно, чем это? Спасибо!
Тим
7

Существует возможность разбивать и разбивать фрейм данных без изменения структуры фрейма данных.

Разделять и расширять данные определенных столбцов

Входные данные:

    var1    var2
0   a,b,c   1
1   d,e,f   2



#Get the indexes which are repetative with the split 
temp = df['var1'].str.split(',')
df = df.reindex(df.index.repeat(temp.apply(len)))


df['var1'] = np.hstack(temp)

Вне:

    var1    var2
0   a   1
0   b   1
0   c   1
1   d   2
1   e   2
1   f   2

Edit-1

Разделение и расширение строк для нескольких столбцов

Filename    RGB                                             RGB_type
0   A   [[0, 1650, 6, 39], [0, 1691, 1, 59], [50, 1402...   [r, g, b]
1   B   [[0, 1423, 16, 38], [0, 1445, 16, 46], [0, 141...   [r, g, b]

Повторное индексирование на основе ссылочного столбца и выравнивание информации о значении столбца со стеком

df = df.reindex(df.index.repeat(df['RGB_type'].apply(len)))
df = df.groupby('Filename').apply(lambda x:x.apply(lambda y: pd.Series(y.iloc[0])))
df.reset_index(drop=True).ffill()

Вне:

                Filename    RGB_type    Top 1 colour    Top 1 frequency Top 2 colour    Top 2 frequency
    Filename                            
 A  0       A   r   0   1650    6   39
    1       A   g   0   1691    1   59
    2       A   b   50  1402    49  187
 B  0       B   r   0   1423    16  38
    1       B   g   0   1445    16  46
    2       B   b   0   1419    16  39
Нага Киран
источник
5

Я придумал решение для фреймов данных с произвольным числом столбцов (при этом одновременно разделяя только записи одного столбца).

def splitDataFrameList(df,target_column,separator):
    ''' df = dataframe to split,
    target_column = the column containing the values to split
    separator = the symbol used to perform the split

    returns: a dataframe with each entry for the target column separated, with each element moved into a new row. 
    The values in the other columns are duplicated across the newly divided rows.
    '''
    def splitListToRows(row,row_accumulator,target_column,separator):
        split_row = row[target_column].split(separator)
        for s in split_row:
            new_row = row.to_dict()
            new_row[target_column] = s
            row_accumulator.append(new_row)
    new_rows = []
    df.apply(splitListToRows,axis=1,args = (new_rows,target_column,separator))
    new_df = pandas.DataFrame(new_rows)
    return new_df
jlln
источник
2
красиво, но печально медленно из-за этого преобразования todict () :(
MAQ
4

Вот довольно простое сообщение, в котором используется splitметод strдоступа от pandas, а затем используется NumPy для сглаживания каждой строки в одном массиве.

Соответствующие значения извлекаются повторением столбца без разделения правильное число раз с np.repeat.

var1 = df.var1.str.split(',', expand=True).values.ravel()
var2 = np.repeat(df.var2.values, len(var1) / len(df))

pd.DataFrame({'var1': var1,
              'var2': var2})

  var1  var2
0    a     1
1    b     1
2    c     1
3    d     2
4    e     2
5    f     2
Тед Петру
источник
1
Это может быть очень красивый ответ. К сожалению, он не масштабируется для большого количества столбцов, не так ли?
Майкл Дорнер
3

Я боролся с нехваткой памяти, используя различные способы взорвать мои списки, поэтому я подготовил несколько тестов, чтобы помочь мне решить, какие ответы на upvote. Я протестировал пять сценариев с различными пропорциями длины списка к количеству списков. Поделиться результатами ниже:

Время: (чем меньше, тем лучше, нажмите, чтобы посмотреть большую версию)

скорость

Пиковое использование памяти: (чем меньше, тем лучше)

Пиковое использование памяти

Выводы :

  • @ MaxU's answer (update 2), кодовое объединение обеспечивает лучшую скорость почти в каждом случае, сохраняя при этом низкое использование оперативной памяти,
  • см . ответ @ DMulligan ( стек кодовых имен ), если вам нужно обрабатывать много строк с относительно небольшими списками и позволить себе увеличить пиковую память,
  • Принятый ответ @ Чанга хорошо работает для фреймов данных, которые имеют несколько строк, но очень большие списки.

Полная информация (функции и код бенчмаркинга) находится в этой сути GitHub . Обратите внимание, что проблема с эталонным тестом была упрощена и не включала разбиение строк в списке - что большинство решений выполнялось аналогичным образом.

Krassowski
источник
Хорошее сравнение! Вы не против опубликовать код, который вы использовали для построения тестов?
MaxU
1
Пожалуйста, смотрите эту ссылку: gist.github.com/krassowski/0259a2cd2ba774ccd9f69bbcc3187fbf (уже включен в ответ) - IMO было бы слишком долго вставлять все это здесь.
Крассовски
2

Основываясь на отлично @ DMulligan в растворе , здесь векторизация функция общая (без петель) , который разбивает столбец dataframe на несколько строк и помещает ее обратно к первоначальному dataframe. Он также использует отличную обобщенную change_column_orderфункцию из этого ответа .

def change_column_order(df, col_name, index):
    cols = df.columns.tolist()
    cols.remove(col_name)
    cols.insert(index, col_name)
    return df[cols]

def split_df(dataframe, col_name, sep):
    orig_col_index = dataframe.columns.tolist().index(col_name)
    orig_index_name = dataframe.index.name
    orig_columns = dataframe.columns
    dataframe = dataframe.reset_index()  # we need a natural 0-based index for proper merge
    index_col_name = (set(dataframe.columns) - set(orig_columns)).pop()
    df_split = pd.DataFrame(
        pd.DataFrame(dataframe[col_name].str.split(sep).tolist())
        .stack().reset_index(level=1, drop=1), columns=[col_name])
    df = dataframe.drop(col_name, axis=1)
    df = pd.merge(df, df_split, left_index=True, right_index=True, how='inner')
    df = df.set_index(index_col_name)
    df.index.name = orig_index_name
    # merge adds the column to the last place, so we need to move it back
    return change_column_order(df, col_name, orig_col_index)

Пример:

df = pd.DataFrame([['a:b', 1, 4], ['c:d', 2, 5], ['e:f:g:h', 3, 6]], 
                  columns=['Name', 'A', 'B'], index=[10, 12, 13])
df
        Name    A   B
    10   a:b     1   4
    12   c:d     2   5
    13   e:f:g:h 3   6

split_df(df, 'Name', ':')
    Name    A   B
10   a       1   4
10   b       1   4
12   c       2   5
12   d       2   5
13   e       3   6
13   f       3   6    
13   g       3   6    
13   h       3   6    

Обратите внимание, что он сохраняет исходный индекс и порядок столбцов. Он также работает с кадрами данных, которые имеют непоследовательный индекс.

Денис Голомазов
источник
2
это мне взломали, хорошая работа: stackoverflow.com/a/48554655/6672746
Эван
2

Строковая функция split может принимать опциональный логический аргумент 'expand'.

Вот решение, использующее этот аргумент:

(a.var1
  .str.split(",",expand=True)
  .set_index(a.var2)
  .stack()
  .reset_index(level=1, drop=True)
  .reset_index()
  .rename(columns={0:"var1"}))
cgels
источник
1

Просто использовал превосходный ответ Джилна сверху, но его нужно было расширить, чтобы разделить несколько столбцов. Мысль я бы поделился.

def splitDataFrameList(df,target_column,separator):
''' df = dataframe to split,
target_column = the column containing the values to split
separator = the symbol used to perform the split

returns: a dataframe with each entry for the target column separated, with each element moved into a new row. 
The values in the other columns are duplicated across the newly divided rows.
'''
def splitListToRows(row, row_accumulator, target_columns, separator):
    split_rows = []
    for target_column in target_columns:
        split_rows.append(row[target_column].split(separator))
    # Seperate for multiple columns
    for i in range(len(split_rows[0])):
        new_row = row.to_dict()
        for j in range(len(split_rows)):
            new_row[target_columns[j]] = split_rows[j][i]
        row_accumulator.append(new_row)
new_rows = []
df.apply(splitListToRows,axis=1,args = (new_rows,target_column,separator))
new_df = pd.DataFrame(new_rows)
return new_df
Derryn Webster-Knife
источник
1

улучшен ответ MaxU с поддержкой MultiIndex

def explode(df, lst_cols, fill_value='', preserve_index=False):
    """
    usage:
        In [134]: df
        Out[134]:
           aaa  myid        num          text
        0   10     1  [1, 2, 3]  [aa, bb, cc]
        1   11     2         []            []
        2   12     3     [1, 2]      [cc, dd]
        3   13     4         []            []

        In [135]: explode(df, ['num','text'], fill_value='')
        Out[135]:
           aaa  myid num text
        0   10     1   1   aa
        1   10     1   2   bb
        2   10     1   3   cc
        3   11     2
        4   12     3   1   cc
        5   12     3   2   dd
        6   13     4
    """
    # make sure `lst_cols` is list-alike
    if (lst_cols is not None
        and len(lst_cols) > 0
        and not isinstance(lst_cols, (list, tuple, np.ndarray, pd.Series))):
        lst_cols = [lst_cols]
    # all columns except `lst_cols`
    idx_cols = df.columns.difference(lst_cols)
    # calculate lengths of lists
    lens = df[lst_cols[0]].str.len()
    # preserve original index values    
    idx = np.repeat(df.index.values, lens)
    res = (pd.DataFrame({
                col:np.repeat(df[col].values, lens)
                for col in idx_cols},
                index=idx)
             .assign(**{col:np.concatenate(df.loc[lens>0, col].values)
                            for col in lst_cols}))
    # append those rows that have empty lists
    if (lens == 0).any():
        # at least one list in cells is empty
        res = (res.append(df.loc[lens==0, idx_cols], sort=False)
                  .fillna(fill_value))
    # revert the original index order
    res = res.sort_index()
    # reset index if requested
    if not preserve_index:        
        res = res.reset_index(drop=True)

    # if original index is MultiIndex build the dataframe from the multiindex
    # create "exploded" DF
    if isinstance(df.index, pd.MultiIndex):
        res = res.reindex(
            index=pd.MultiIndex.from_tuples(
                res.index,
                names=['number', 'color']
            )
    )
    return res
Шахар Кац
источник
1

Однострочное использование аргументов split(___, expand=True)и levelи nameдля reset_index():

>>> b = a.var1.str.split(',', expand=True).set_index(a.var2).stack().reset_index(level=0, name='var1')
>>> b
   var2 var1
0     1    a
1     1    b
2     1    c
0     2    d
1     2    e
2     2    f

Если вам нужно bвыглядеть так же, как в вопросе, вы можете сделать следующее:

>>> b = b.reset_index(drop=True)[['var1', 'var2']]
>>> b
  var1  var2
0    a     1
1    b     1
2    c     1
3    d     2
4    e     2
5    f     2
1 ''
источник
0

Я придумал следующее решение этой проблемы:

def iter_var1(d):
    for _, row in d.iterrows():
        for v in row["var1"].split(","):
            yield (v, row["var2"])

new_a = DataFrame.from_records([i for i in iter_var1(a)],
        columns=["var1", "var2"])
Павел
источник
0

Другое решение, которое использует пакет копирования Python

import copy
new_observations = list()
def pandas_explode(df, column_to_explode):
    new_observations = list()
    for row in df.to_dict(orient='records'):
        explode_values = row[column_to_explode]
        del row[column_to_explode]
        if type(explode_values) is list or type(explode_values) is tuple:
            for explode_value in explode_values:
                new_observation = copy.deepcopy(row)
                new_observation[column_to_explode] = explode_value
                new_observations.append(new_observation) 
        else:
            new_observation = copy.deepcopy(row)
            new_observation[column_to_explode] = explode_values
            new_observations.append(new_observation) 
    return_df = pd.DataFrame(new_observations)
    return return_df

df = pandas_explode(df, column_name)
Анкит Махешвари
источник
0

Здесь есть много ответов, но я удивлен, что никто не упомянул встроенную функцию разнесения панд. Проверьте ссылку ниже: https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.explode.html#pandas.DataFrame.explode

По какой-то причине я не смог получить доступ к этой функции, поэтому я использовал следующий код:

import pandas_explode
pandas_explode.patch()
df_zlp_people_cnt3 = df_zlp_people_cnt2.explode('people')

введите описание изображения здесь

Выше приведен образец моих данных. Как вы можете видеть людей колонке было несколько человек, и я пытался взорвать ее. Код, который я дал, работает для данных типа списка. Поэтому постарайтесь получить текстовые данные через запятую в виде списка. Кроме того, так как мой код использует встроенные функции, он намного быстрее, чем пользовательские функции.

Примечание: вам может понадобиться установить pandas_explode с pip.

Харша Редди
источник
0

У меня была похожая проблема, моим решением было сначала преобразовать фрейм данных в список словарей, а затем выполнить переход. Вот функция:

import copy
import re

def separate_row(df, column_name):
    ls = []
    for row_dict in df.to_dict('records'):
        for word in re.split(',', row_dict[column_name]):
            row = copy.deepcopy(row_dict)
            row[column_name]=word
            ls(row)
    return pd.DataFrame(ls)

Пример:

>>> from pandas import DataFrame
>>> import numpy as np
>>> a = DataFrame([{'var1': 'a,b,c', 'var2': 1},
               {'var1': 'd,e,f', 'var2': 2}])
>>> a
    var1  var2
0  a,b,c     1
1  d,e,f     2
>>> separate_row(a, "var1")
  var1  var2
0    a     1
1    b     1
2    c     1
3    d     2
4    e     2
5    f     2

Вы также можете немного изменить функцию для поддержки разделения строк типа списка.

Zhiwei
источник