Chciałbym skutecznie obliczyć podobieństwo Jaccard między dokumentami tm::DocumentTermMatrix
. Mogę zrobić coś podobnego do podobieństwa cosinus poprzez pakiet slam jak pokazano w this answer. natknąłem się na another question and response na CrossValidated, który był specyficzny dla R, ale o algebrę macierzy niekoniecznie najbardziej wydajną. Próbowałem zaimplementować to rozwiązanie z bardziej wydajnymi funkcjami slam, ale nie mam takiego samego rozwiązania, jak w przypadku mniej efektywnego podejścia do wymuszania DTM na macierzy i używania proxy::dist
.Efektywne podobieństwo jaccard DocumentTermMatrix
Jak mogę skutecznie obliczyć podobieństwo Jaccard między dokumentami dużego DocumentTermMatrix w R?
#data & Pacages
library(Matrix);library(proxy);library(tm);library(slam);library(Matrix)
mat <- structure(list(i = c(1L, 2L, 1L, 2L, 1L, 2L, 1L, 2L, 3L, 1L,
2L, 3L, 3L, 3L, 4L, 4L, 4L, 4L), j = c(1L, 1L, 2L, 2L, 3L, 3L,
4L, 4L, 4L, 5L, 5L, 6L, 7L, 8L, 9L, 10L, 11L, 12L), v = c(1,
1, 1, 1, 2, 2, 1, 1, 1, 1, 1, 1, 2, 1, 1, 1, 1, 1), nrow = 4L,
ncol = 12L, dimnames = structure(list(Docs = c("1", "2",
"3", "4"), Terms = c("computer", "is", "fun", "not", "too",
"no", "it's", "dumb", "what", "should", "we", "do")), .Names = c("Docs",
"Terms"))), .Names = c("i", "j", "v", "nrow", "ncol", "dimnames"
), class = c("DocumentTermMatrix", "simple_triplet_matrix"), weighting = c("term frequency",
"tf"))
#Inefficient obliczania (oczekiwany wynik)
proxy::dist(as.matrix(mat), method = 'jaccard')
## 1 2 3
## 2 0.000
## 3 0.875 0.875
## 4 1.000 1.000 1.000
#My Próba
A <- slam::tcrossprod_simple_triplet_matrix(mat)
im <- which(A > 0, arr.ind=TRUE)
b <- slam::row_sums(mat)
Aim <- A[im]
stats::as.dist(Matrix::sparseMatrix(
i = im[,1],
j = im[,2],
x = Aim/(b[im[,1]] + b[im[,2]] - Aim),
dims = dim(A)
))
## 1 2 3
## 2 2.0
## 3 0.1 0.1
## 4 0.0 0.0 0.0
Wyjścia nie są zgodne.
FYI Oto oryginalny tekst:
c("Computer is fun. Not too fun.", "Computer is fun. Not too fun.",
"No it's not, it's dumb.", "What should we do?")
będę oczekiwać elementy 1 & 2 będzie 0 i odległość elementu 3, aby być bliżej niż elementu elementu 1 1 i 4 (Spodziewam najdalej odległość jako brak słów są wspólne), jak widać w rozwiązaniu proxy::dist
.
EDIT
Należy pamiętać, że nawet w średniej wielkości DTM matryca staje się ogromna. Oto przykład z pakietem wegańska. Uwaga 4 minuty na rozwiązanie, gdy podobieństwo cosinusa wynosi ~ 5 sekund.
library(qdap); library(quanteda);library(vegan);library(slam)
x <- quanteda::convert(quanteda::dfm(rep(pres_debates2012$dialogue), stem = FALSE,
verbose = FALSE, removeNumbers = FALSE), to = 'tm')
## <<DocumentTermMatrix (documents: 2912, terms: 3368)>>
## Non-/sparse entries: 37836/9769780
## Sparsity : 100%
## Maximal term length: 16
## Weighting : term frequency (tf)
tic <- Sys.time()
jaccard_dist_mat <- vegan::vegdist(as.matrix(x), method = 'jaccard')
Sys.time() - tiC#Time difference of 4.01837 mins
tic <- Sys.time()
tdm <- t(x)
cosine_dist_mat <- 1 - crossprod_simple_triplet_matrix(tdm)/(sqrt(col_sums(tdm^2) %*% t(col_sums(tdm^2))))
Sys.time() - tiC#Time difference of 5.024992 secs
Nie jestem pewien, czy zrozumiałem Twój komentarz. Co dokładnie nie tak w mojej odpowiedzi? Produkuje prawidłowe podobieństwa do jaccard i działa dość szybko. –
Przepraszam, jeśli mój komentarz wygląda na zbyt niegrzeczny. Poprawiona odpowiedź. –
dziękuję bardzo pomocne, PS lubię nowe dodatki do text2vec –