Как использовать Scikit-Learn Label Propagation для структурированных графиков данных?

11

В рамках моего исследования я заинтересован в распространении меток на графике. Меня особенно интересуют эти два метода:

  • Сяоцзинь Чжу и Зубин Гахрамани. Обучение на помеченных и немаркированных данных с распространением меток. Технический отчет CMU-CALD-02-107, Университет Карнеги-Меллона, 2002 г. http://pages.cs.wisc.edu/~jerryzhu/pub/CMU-CALD-02-107.pdf
  • Денйонг Чжоу, Оливье Буске, Томас Навин Лал, Джейсон Уэстон, Бернхард Шоелкопф. Обучение с локальной и глобальной согласованностью (2004) http://citeseer.ist.psu.edu/viewdoc/summary?doi=10.1.1.115.3219

Я видел, что scikit-learn предлагает модель для этого. Однако предполагается, что эта модель будет применяться к векторным структурированным данным ( т.е. точкам данных).

Модель строит матрицу сродства из точек данных, используя ядро, а затем запускает алгоритм на построенной матрице. Я хотел бы иметь возможность напрямую вводить матрицу смежности моего графа вместо матрицы подобия.

Есть идеи, как этого добиться? Или вы знаете какую-либо библиотеку Python, которая позволит запускать распространение меток непосредственно на данных со структурой графа для двух вышеупомянутых методов?

Заранее спасибо за помощь!

Тибо Мартинес
источник
Вы проверили исходный код Scikit-learn, чтобы увидеть, что он делает после вычисления аффинной матрицы? Возможно, может «скопировать» код после этой части, чтобы применить его непосредственно к вашей матрице смежности.
Тасос
Спасибо за ваш комментарий! На самом деле, это то, чем я сейчас занимаюсь, но некоторые части кода, которые мне нужно изменить, чтобы они соответствовали моим потребностям, несколько загадочны. Я боюсь, что переписывание этих частей приведет к ошибкам. Я надеялся, что существует более простой метод.
Тибо Мартинес
1
Исходный код на github.com/scikit-learn/scikit-learn/blob/7389dba/sklearn/… - говорит, что реализации должны переопределять метод _build_graph. Поэтому, естественно, вы должны попытаться создать производный класс, который принимает предварительно вычисленную матрицу.
Микалай

Ответы:

2

Отвечая на мой собственный вопрос, я надеюсь, что он будет полезен некоторым читателям.

Scikit-learn в первую очередь предназначен для работы с векторными данными. Следовательно, если вы хотите выполнять распространение меток / распространение меток на данных с графовой структурой, вам, вероятно, лучше переопределить метод самостоятельно, чем использовать интерфейс Scikit.

Вот реализация распространения меток и распространения меток в PyTorch.

Оба метода в целом следуют одним и тем же алгоритмическим шагам, с вариациями того, как нормализуется матрица смежности и как метки распространяются на каждом шаге. Поэтому давайте создадим базовый класс для наших двух моделей.

from abc import abstractmethod
import torch

class BaseLabelPropagation:
    """Base class for label propagation models.

    Parameters
    ----------
    adj_matrix: torch.FloatTensor
        Adjacency matrix of the graph.
    """
    def __init__(self, adj_matrix):
        self.norm_adj_matrix = self._normalize(adj_matrix)
        self.n_nodes = adj_matrix.size(0)
        self.one_hot_labels = None 
        self.n_classes = None
        self.labeled_mask = None
        self.predictions = None

    @staticmethod
    @abstractmethod
    def _normalize(adj_matrix):
        raise NotImplementedError("_normalize must be implemented")

    @abstractmethod
    def _propagate(self):
        raise NotImplementedError("_propagate must be implemented")

    def _one_hot_encode(self, labels):
        # Get the number of classes
        classes = torch.unique(labels)
        classes = classes[classes != -1]
        self.n_classes = classes.size(0)

        # One-hot encode labeled data instances and zero rows corresponding to unlabeled instances
        unlabeled_mask = (labels == -1)
        labels = labels.clone()  # defensive copying
        labels[unlabeled_mask] = 0
        self.one_hot_labels = torch.zeros((self.n_nodes, self.n_classes), dtype=torch.float)
        self.one_hot_labels = self.one_hot_labels.scatter(1, labels.unsqueeze(1), 1)
        self.one_hot_labels[unlabeled_mask, 0] = 0

        self.labeled_mask = ~unlabeled_mask

    def fit(self, labels, max_iter, tol):
        """Fits a semi-supervised learning label propagation model.

        labels: torch.LongTensor
            Tensor of size n_nodes indicating the class number of each node.
            Unlabeled nodes are denoted with -1.
        max_iter: int
            Maximum number of iterations allowed.
        tol: float
            Convergence tolerance: threshold to consider the system at steady state.
        """
        self._one_hot_encode(labels)

        self.predictions = self.one_hot_labels.clone()
        prev_predictions = torch.zeros((self.n_nodes, self.n_classes), dtype=torch.float)

        for i in range(max_iter):
            # Stop iterations if the system is considered at a steady state
            variation = torch.abs(self.predictions - prev_predictions).sum().item()

            if variation < tol:
                print(f"The method stopped after {i} iterations, variation={variation:.4f}.")
                break

            prev_predictions = self.predictions
            self._propagate()

    def predict(self):
        return self.predictions

    def predict_classes(self):
        return self.predictions.max(dim=1).indices

Модель принимает в качестве входных данных матрицу смежности графа, а также метки узлов. Метки представлены в виде вектора целого числа, указывающего номер класса каждого узла с -1 в положении немеченых узлов.

Алгоритм распространения метки представлен ниже.

W: adjacency matrix of the graph Compute the diagonal degree matrix D by DiijWij Initialize Y^(0)(y1,,yl,0,0,,0) Iterate  1. Y^(t+1)D1WY^(t) 2. Y^l(t+1)Yl until convergence to Y^() Label point xi by the sign of y^i()

От Сяоцзин Чжу и Зубина Гахрамани. Обучение на помеченных и немаркированных данных с распространением меток. Технический отчет CMU-CALD-02-107, Университет Карнеги-Меллона, 2002

Мы получаем следующую реализацию.

class LabelPropagation(BaseLabelPropagation):
    def __init__(self, adj_matrix):
        super().__init__(adj_matrix)

    @staticmethod
    def _normalize(adj_matrix):
        """Computes D^-1 * W"""
        degs = adj_matrix.sum(dim=1)
        degs[degs == 0] = 1  # avoid division by 0 error
        return adj_matrix / degs[:, None]

    def _propagate(self):
        self.predictions = torch.matmul(self.norm_adj_matrix, self.predictions)

        # Put back already known labels
        self.predictions[self.labeled_mask] = self.one_hot_labels[self.labeled_mask]

    def fit(self, labels, max_iter=1000, tol=1e-3):
        super().fit(labels, max_iter, tol)

Алгоритм распространения меток:

W: adjacency matrix of the graph Compute the diagonal degree matrix D by DiijWij Compute the normalized graph Laplacian LD1/2WD1/2 Initialize Y^(0)(y1,,yl,0,0,,0) Choose a parameter α[0,1) Iterate Y^(t+1)αLY^(t)+(1α)Y^(0) until convergence to Y^() Label point xi by the sign of y^i()

От Денгён Чжоу, Оливье Буске, Томаса Навина Лала, Джейсона Уэстона, Бернхарда Шоелкопфа. Обучение с локальной и глобальной последовательностью (2004)

Реализация, следовательно, заключается в следующем.

class LabelSpreading(BaseLabelPropagation):
    def __init__(self, adj_matrix):
        super().__init__(adj_matrix)
        self.alpha = None

    @staticmethod
    def _normalize(adj_matrix):
        """Computes D^-1/2 * W * D^-1/2"""
        degs = adj_matrix.sum(dim=1)
        norm = torch.pow(degs, -0.5)
        norm[torch.isinf(norm)] = 1
        return adj_matrix * norm[:, None] * norm[None, :]

    def _propagate(self):
        self.predictions = (
            self.alpha * torch.matmul(self.norm_adj_matrix, self.predictions)
            + (1 - self.alpha) * self.one_hot_labels
        )

    def fit(self, labels, max_iter=1000, tol=1e-3, alpha=0.5):
        """
        Parameters
        ----------
        alpha: float
            Clamping factor.
        """
        self.alpha = alpha
        super().fit(labels, max_iter, tol)

Теперь давайте проверим наши модели распространения на синтетических данных. Для этого мы решили использовать граф пещерного человека .

import pandas as pd
import numpy as np
import networkx as nx
import matplotlib.pyplot as plt

# Create caveman graph
n_cliques = 4
size_cliques = 10
caveman_graph = nx.connected_caveman_graph(n_cliques, size_cliques)
adj_matrix = nx.adjacency_matrix(caveman_graph).toarray()

# Create labels
labels = np.full(n_cliques * size_cliques, -1.)

# Only one node per clique is labeled. Each clique belongs to a different class.
labels[0] = 0
labels[size_cliques] = 1
labels[size_cliques * 2] = 2
labels[size_cliques * 3] = 3

# Create input tensors
adj_matrix_t = torch.FloatTensor(adj_matrix)
labels_t = torch.LongTensor(labels)

# Learn with Label Propagation
label_propagation = LabelPropagation(adj_matrix_t)
label_propagation.fit(labels_t)
label_propagation_output_labels = label_propagation.predict_classes()

# Learn with Label Spreading
label_spreading = LabelSpreading(adj_matrix_t)
label_spreading.fit(labels_t, alpha=0.8)
label_spreading_output_labels = label_spreading.predict_classes()

# Plot graphs
color_map = {-1: "orange", 0: "blue", 1: "green", 2: "red", 3: "cyan"}
input_labels_colors = [color_map[l] for l in labels]
lprop_labels_colors = [color_map[l] for l in label_propagation_output_labels.numpy()]
lspread_labels_colors = [color_map[l] for l in label_spreading_output_labels.numpy()]

plt.figure(figsize=(14, 6))
ax1 = plt.subplot(1, 4, 1)
ax2 = plt.subplot(1, 4, 2)
ax3 = plt.subplot(1, 4, 3)

ax1.title.set_text("Raw data (4 classes)")
ax2.title.set_text("Label Propagation")
ax3.title.set_text("Label Spreading")

pos = nx.spring_layout(caveman_graph)
nx.draw(caveman_graph, ax=ax1, pos=pos, node_color=input_labels_colors, node_size=50)
nx.draw(caveman_graph, ax=ax2, pos=pos, node_color=lprop_labels_colors, node_size=50)
nx.draw(caveman_graph, ax=ax3, pos=pos, node_color=lspread_labels_colors, node_size=50)

# Legend
ax4 = plt.subplot(1, 4, 4)
ax4.axis("off")
legend_colors = ["orange", "blue", "green", "red", "cyan"]
legend_labels = ["unlabeled", "class 0", "class 1", "class 2", "class 3"]
dummy_legend = [ax4.plot([], [], ls='-', c=c)[0] for c in legend_colors]
plt.legend(dummy_legend, legend_labels)

plt.show()

Внедренные модели работают корректно и позволяют выявлять сообщества на графике.

Реализации распространения меток и распространения меток, протестированные на графике пещерного человека

Примечание. Представленные методы распространения предназначены для использования на неориентированных графах.

Код доступен в виде интерактивной записной книжки Jupyter здесь .

связующее вещество

Тибо М
источник