Я использую Gensim Library в Python для использования и обучения модели word2vector. Недавно я смотрел на инициализацию весов моей модели с помощью некоторой предварительно обученной модели word2vec, такой как (предварительно обученная модель GoogleNewDataset). Я боролся с этим пару недель. Теперь я только что выяснил, что в gesim есть функция, которая может помочь мне инициализировать веса моей модели с помощью предварительно обученных весов модели. Это упоминается ниже:
reset_from(other_model)
Borrow shareable pre-built structures (like vocab) from the other_model. Useful if testing multiple models in parallel on the same corpus.
Я не знаю, эта функция может делать то же самое или нет. Пожалуйста помоги!!!
Ответы:
Спасибо, Абхишек. Я понял это! Вот мои эксперименты.
1). приведем простой пример:
Из приведенных выше графиков видно, что простые предложения не могут различать значения разных слов по расстояниям.
2). Загрузить предварительно обученное встраивание слов:
Из приведенного выше рисунка видно, что вложения слов более значимы.
Надеюсь, что этот ответ будет полезным.
источник
Давайте посмотрим на пример кода:
Следовательно, мы видим, что модель1 сбрасывается моделью2, и, следовательно, слова «третье» и «предложение» в своем словаре в конечном итоге дают сходство. Это основное использование, вы также можете проверить reset_weights (), чтобы сбросить веса в нетренированное / начальное состояние.
источник
Если вы ищете предварительно обученную сеть для встраивания слов, я бы предложил GloVe. Следующий блог от Keras очень информативен о том, как это реализовать. Также имеется ссылка на предварительно обученные вложения GloVe. Существуют предварительно обученные векторы слов в диапазоне от 50-мерного вектора до 300-мерных векторов. Они были построены на Википедии, Общих данных сканирования или Твиттере. Вы можете скачать их здесь: http://nlp.stanford.edu/projects/glove/ . Кроме того, вы должны изучить блог keras о том, как их реализовать. https://blog.keras.io/using-pre-trained-word-embeddings-in-a-keras-model.html
источник
Я сделал это здесь: https://gist.github.com/AbhishekAshokDubey/054af6f92d67d5ef8300fac58f59fcc9
Смотрите, если это то, что вам нужно
источник