Керас, как получить выход каждого слоя?

155

Я обучил бинарную модель классификации с CNN, и вот мой код

model = Sequential()
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1],
                        border_mode='valid',
                        input_shape=input_shape))
model.add(Activation('relu'))
model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=pool_size))
# (16, 16, 32)
model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1]))
model.add(Activation('relu'))
model.add(MaxPooling2D(pool_size=pool_size))
# (8, 8, 64) = (2048)
model.add(Flatten())
model.add(Dense(1024))
model.add(Activation('relu'))
model.add(Dropout(0.5))
model.add(Dense(2))  # define a binary classification problem
model.add(Activation('softmax'))

model.compile(loss='categorical_crossentropy',
              optimizer='adadelta',
              metrics=['accuracy'])
model.fit(x_train, y_train,
          batch_size=batch_size,
          nb_epoch=nb_epoch,
          verbose=1,
          validation_data=(x_test, y_test))

И здесь я хочу получить выходные данные каждого слоя, как TensorFlow, как я могу это сделать?

GoingMyWay
источник

Ответы:

182

Вы можете легко получить выходные данные любого слоя, используя: model.layers[index].output

Для всех слоев используйте это:

from keras import backend as K

inp = model.input                                           # input placeholder
outputs = [layer.output for layer in model.layers]          # all layer outputs
functors = [K.function([inp, K.learning_phase()], [out]) for out in outputs]    # evaluation functions

# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = [func([test, 1.]) for func in functors]
print layer_outs

Примечание: для симуляции Dropout используйте learning_phaseкак 1.в layer_outsдругих случаях0.

Изменить: (на основе комментариев)

K.function создает тензорные функции theano / tenorflow, которые впоследствии используются для получения выходных данных из символьного графа с учетом входных данных.

Теперь K.learning_phase()требуется в качестве входных данных, так как многие слои Keras, такие как Dropout / Batchnomalization, зависят от него, чтобы изменить поведение во время обучения и тестирования.

Так что, если вы удалите выпадающий слой в своем коде, вы можете просто использовать:

from keras import backend as K

inp = model.input                                           # input placeholder
outputs = [layer.output for layer in model.layers]          # all layer outputs
functors = [K.function([inp], [out]) for out in outputs]    # evaluation functions

# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = [func([test]) for func in functors]
print layer_outs

Редактировать 2: более оптимизированный

Я только что понял, что предыдущий ответ не настолько оптимизирован, так как для каждой оценки функции данные будут передаваться из памяти CPU-> GPU, а также необходимо выполнить тензорные вычисления для более низких уровней over-n-over.

Вместо этого это гораздо лучший способ, так как вам не нужно несколько функций, а одна функция, предоставляющая вам список всех выходов:

from keras import backend as K

inp = model.input                                           # input placeholder
outputs = [layer.output for layer in model.layers]          # all layer outputs
functor = K.function([inp, K.learning_phase()], outputs )   # evaluation function

# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = functor([test, 1.])
print layer_outs
indraforyou
источник
2
сэр, ваш ответ хороший, что K.function([inp]+ [K.learning_phase()], [out])значит в вашем коде?
GoingMyWay
Отличный ответ, np.random.random(input_shape)[np.newaxis,...]также можно записать какnp.random.random(input_shape)[np.newaxis,:]
Том
Что такое K.function? как это перешло на GPU (MPI?)? что там за сценой? Как обстоят дела с CUDA? где находится исходный код?
Став Бодик
3
@StavBodik Модель строит функцию предсказать , используя K.function здесь , и предсказать , использует его в петлю предсказать здесь . Прогнозировать циклы по размеру пакета (если он не установлен по умолчанию 32), но это для смягчения ограничений памяти GPU. Так что я не уверен, почему вы наблюдаете model.predictбыстрее.
indraforyou
1
Получаю это: InvalidArgumentError: S_input_39: 0 и подается, и выбирается. ... кто-нибудь с идеями?
математика
138

С https://keras.io/getting-started/faq/#how-can-i-obtain-the-output-of-an-intermediate-layer

Один простой способ - создать новую модель, которая будет выводить интересующие вас слои:

from keras.models import Model

model = ...  # include here your original model

layer_name = 'my_layer'
intermediate_layer_model = Model(inputs=model.input,
                                 outputs=model.get_layer(layer_name).output)
intermediate_output = intermediate_layer_model.predict(data)

В качестве альтернативы, вы можете создать функцию Keras, которая будет возвращать выходные данные определенного слоя с определенным вводом, например:

from keras import backend as K

# with a Sequential model
get_3rd_layer_output = K.function([model.layers[0].input],
                                  [model.layers[3].output])
layer_output = get_3rd_layer_output([x])[0]
голубое небо
источник
Если бы я мог, я бы дал вам два ... Этот способ оооочень более удобен, когда у вас есть несколько входов.
Дэн Эрез
Из приведенного выше кода это довольно ясно, но просто перепроверьте мое понимание: после создания модели из существующей модели (при условии, что она уже обучена), нет необходимости вызывать set_weights для новой модели. Это правильно?
JZ
В чем разница между layer_output = get_3rd_layer_output([X, 0])[0]и layer_output = get_3rd_layer_output([X, 1])[0]Документах упомянуть режим поезда и тестовый режим
Jason
извините, вы можете объяснить мне, что именно делает эта модель? Вы должны также тренировать это? Я не могу представить никакой диаграммы к нему. Вы добавляете входной слой другой модели, затем добавляете случайный промежуточный слой этой другой модели в качестве выходных данных и подаете на него входные данные? Почему это вместо того, чтобы кормить оригинальную модель и получать прямой доступ к любому промежуточному слою в ней? Зачем создавать эту дополнительную странную модель? И не повлияет ли это на результат? не будет ли он пытаться учиться или нуждаться в обучении, или слой приносит свои веса, предварительно обученные из исходной модели?
PedroD
19

Основываясь на всех хороших ответах этой темы, я написал библиотеку для извлечения выходных данных каждого слоя. Он абстрагирует всю сложность и был разработан, чтобы быть максимально удобным для пользователя:

https://github.com/philipperemy/keract

Он обрабатывает почти все крайние случаи

Надеюсь, поможет!

Филипп Реми
источник
8

Следующее выглядит очень просто для меня:

model.layers[idx].output

Выше находится тензорный объект, поэтому вы можете изменить его, используя операции, которые можно применить к тензорному объекту.

Например, чтобы получить форму model.layers[idx].output.get_shape()

idx это индекс слоя, и вы можете найти его из model.summary()

дьявол в деталях
источник
1
Что не так с этим ответом? Почему это не проголосовало как главный ответ?
Блэк Джек 21
1
Возвращает тензорный объект, а не фрейм данных. С объектами странно работать.
HashRocketSyntax
7

Я написал эту функцию для себя (в Jupyter), и она была вдохновлена ответом indraforyou . Он отобразит все выходные данные слоя автоматически. Ваши изображения должны иметь форму (x, y, 1), где 1 обозначает 1 канал. Вы просто вызываете plot_layer_outputs (...) для построения графика.

%matplotlib inline
import matplotlib.pyplot as plt
from keras import backend as K

def get_layer_outputs():
    test_image = YOUR IMAGE GOES HERE!!!
    outputs    = [layer.output for layer in model.layers]          # all layer outputs
    comp_graph = [K.function([model.input]+ [K.learning_phase()], [output]) for output in outputs]  # evaluation functions

    # Testing
    layer_outputs_list = [op([test_image, 1.]) for op in comp_graph]
    layer_outputs = []

    for layer_output in layer_outputs_list:
        print(layer_output[0][0].shape, end='\n-------------------\n')
        layer_outputs.append(layer_output[0][0])

    return layer_outputs

def plot_layer_outputs(layer_number):    
    layer_outputs = get_layer_outputs()

    x_max = layer_outputs[layer_number].shape[0]
    y_max = layer_outputs[layer_number].shape[1]
    n     = layer_outputs[layer_number].shape[2]

    L = []
    for i in range(n):
        L.append(np.zeros((x_max, y_max)))

    for i in range(n):
        for x in range(x_max):
            for y in range(y_max):
                L[i][x][y] = layer_outputs[layer_number][x][y][i]


    for img in L:
        plt.figure()
        plt.imshow(img, interpolation='nearest')
Miladiouss
источник
Что если модель имеет несколько входов? Как вам указать входы?
Антонио Сесто
В этой строке: layer_outputs_list = [op ([test_image, 1.]). 1. должно быть 0? Кажется, 1 обозначает тренировку, а 0 - тестирование? Не есть?
Kongsea
Это не работает для меня. Я использовал цветное изображение, и оно дает мне ошибку: InvalidArgumentError: input_2: 0 и подается, и выбирается.
Вайбхав К
5

От: https://github.com/philipperemy/keras-visualize-activations/blob/master/read_activations.py

import keras.backend as K

def get_activations(model, model_inputs, print_shape_only=False, layer_name=None):
    print('----- activations -----')
    activations = []
    inp = model.input

    model_multi_inputs_cond = True
    if not isinstance(inp, list):
        # only one input! let's wrap it in a list.
        inp = [inp]
        model_multi_inputs_cond = False

    outputs = [layer.output for layer in model.layers if
               layer.name == layer_name or layer_name is None]  # all layer outputs

    funcs = [K.function(inp + [K.learning_phase()], [out]) for out in outputs]  # evaluation functions

    if model_multi_inputs_cond:
        list_inputs = []
        list_inputs.extend(model_inputs)
        list_inputs.append(0.)
    else:
        list_inputs = [model_inputs, 0.]

    # Learning phase. 0 = Test mode (no dropout or batch normalization)
    # layer_outputs = [func([model_inputs, 0.])[0] for func in funcs]
    layer_outputs = [func(list_inputs)[0] for func in funcs]
    for layer_activations in layer_outputs:
        activations.append(layer_activations)
        if print_shape_only:
            print(layer_activations.shape)
        else:
            print(layer_activations)
    return activations
cannin
источник
Ссылка устарела.
Саид
github.com/philipperemy/keract
Филипп Реми
5

Хотел добавить это в качестве комментария (но не достаточно высокого представителя) к ответу @ indraforyou, чтобы исправить проблему, упомянутую в комментарии @ mathtick. Для того, чтобы избежать InvalidArgumentError: input_X:Y is both fed and fetched.исключения, просто замените строку outputs = [layer.output for layer in model.layers]с outputs = [layer.output for layer in model.layers][1:], т.е.

адаптируя минимальный рабочий пример indraforyou:

from keras import backend as K 
inp = model.input                                           # input placeholder
outputs = [layer.output for layer in model.layers][1:]        # all layer outputs except first (input) layer
functor = K.function([inp, K.learning_phase()], outputs )   # evaluation function

# Testing
test = np.random.random(input_shape)[np.newaxis,...]
layer_outs = functor([test, 1.])
print layer_outs

PS мои попытки попробовать такие вещи, как outputs = [layer.output for layer in model.layers[1:]]не сработало.

KamKam
источник
1
это не совсем правильно. Это только если входной слой определен первым.
Мпизос Димитрис
Спасибо, это сработало для меня, и я просто хочу проверить, я понимаю, почему, основываясь на комментарии Мпизоса: моя модель - это всего 3 слоя (вложение слов - BiLSTM - CRF), поэтому я думаю, что мне пришлось исключить слой [0], так как это просто вложения и не должны иметь активации, верно?
KMunro
@MpizosDimitris Да, это правильно, но в примере, представленном @indraforyou (который я исправляю), это было именно так. @KMunro, если я правильно понимаю, то причина, по которой вас не волнует вывод первого слоя, заключается в том, что это просто вывод слова embedding, которое представляет собой просто слово, внедряющееся в тензорную форму (что является просто вход в «сетевую» часть вашей kerasмодели). Слой встраивания ваших слов эквивалентен входному слою в приведенном здесь примере.
КамКам
3

Предполагая, что у вас есть:

1- Керас предварительно обучен model.

2- Введите xкак изображение или набор изображений. Разрешение изображения должно соответствовать размеру входного слоя. Например, 80 * 80 * 3 для 3-канального (RGB) изображения.

3- Имя выхода, layerчтобы получить активацию. Например, слой "flatten_2". Это следует включить в layer_namesпеременную, представляющую собой название слоев данного model.

4 batch_size- необязательный аргумент.

Затем вы можете легко использовать get_activationфункцию, чтобы получить активацию выхода layerдля данного входа xи предварительно обученного model:

import six
import numpy as np
import keras.backend as k
from numpy import float32
def get_activations(x, model, layer, batch_size=128):
"""
Return the output of the specified layer for input `x`. `layer` is specified by layer index (between 0 and
`nb_layers - 1`) or by name. The number of layers can be determined by counting the results returned by
calling `layer_names`.
:param x: Input for computing the activations.
:type x: `np.ndarray`. Example: x.shape = (80, 80, 3)
:param model: pre-trained Keras model. Including weights.
:type model: keras.engine.sequential.Sequential. Example: model.input_shape = (None, 80, 80, 3)
:param layer: Layer for computing the activations
:type layer: `int` or `str`. Example: layer = 'flatten_2'
:param batch_size: Size of batches.
:type batch_size: `int`
:return: The output of `layer`, where the first dimension is the batch size corresponding to `x`.
:rtype: `np.ndarray`. Example: activations.shape = (1, 2000)
"""

    layer_names = [layer.name for layer in model.layers]
    if isinstance(layer, six.string_types):
        if layer not in layer_names:
            raise ValueError('Layer name %s is not part of the graph.' % layer)
        layer_name = layer
    elif isinstance(layer, int):
        if layer < 0 or layer >= len(layer_names):
            raise ValueError('Layer index %d is outside of range (0 to %d included).'
                             % (layer, len(layer_names) - 1))
        layer_name = layer_names[layer]
    else:
        raise TypeError('Layer must be of type `str` or `int`.')

    layer_output = model.get_layer(layer_name).output
    layer_input = model.input
    output_func = k.function([layer_input], [layer_output])

    # Apply preprocessing
    if x.shape == k.int_shape(model.input)[1:]:
        x_preproc = np.expand_dims(x, 0)
    else:
        x_preproc = x
    assert len(x_preproc.shape) == 4

    # Determine shape of expected output and prepare array
    output_shape = output_func([x_preproc[0][None, ...]])[0].shape
    activations = np.zeros((x_preproc.shape[0],) + output_shape[1:], dtype=float32)

    # Get activations with batching
    for batch_index in range(int(np.ceil(x_preproc.shape[0] / float(batch_size)))):
        begin, end = batch_index * batch_size, min((batch_index + 1) * batch_size, x_preproc.shape[0])
        activations[begin:end] = output_func([x_preproc[begin:end]])[0]

    return activations
imanzabet
источник
2

Если у вас есть один из следующих случаев:

  • ошибка: InvalidArgumentError: input_X:Y is both fed and fetched
  • случай нескольких входов

Вам необходимо сделать следующие изменения:

  • добавить фильтр для входных слоев в outputsпеременную
  • меннор на functorsпетле

Минимальный пример:

from keras.engine.input_layer import InputLayer
inp = model.input
outputs = [layer.output for layer in model.layers if not isinstance(layer, InputLayer)]
functors = [K.function(inp + [K.learning_phase()], [x]) for x in outputs]
layer_outputs = [fun([x1, x2, xn, 1]) for fun in functors]
Мпизос Димитрис
источник
Что подразумевается под [x1, x2, xn, 1]? Мой x1 не определен, и я хотел бы понять, что вы там определяете.
HashRocketSyntax
@HashRocketSyntax x1и x2являются входными данными модели. Как уже было сказано, у вас есть 2 входа на вашу модель.
Мпизос Димитрис
1

Ну, другие ответы очень полны, но есть очень простой способ «увидеть», а не «получить» формы.

Просто сделай model.summary(). Он напечатает все слои и их выходные формы. «None» значения будут указывать на переменные размеры, а первое измерение будет размером пакета.

Даниэль Мёллер
источник
Это касается вывода слоя (с учетом входных данных для базового слоя), а не слоя.
математика