Jak korzystać z pakietów R zoo lub xts z bardzo dużymi zbiorami danych? (100 GB) Wiem, że są pewne pakiety, takie jak bigrf, ff, bigmemory, które mogą poradzić sobie z tym problemem, ale musisz użyć ich ograniczonego zestawu poleceń, nie mają one funkcji zoo ani xts, a ja nie wiedzieć, jak zrobić zoo lub xts, aby z nich korzystać. Jak mogę z niego korzystać?Jak korzystać z zoo lub xts z dużymi danymi?
Widziałem, że są też inne rzeczy związane z bazami danych, takie jak sqldf i hadoopstreaming, RHadoop lub inne używane przez Revolution R. Co radzisz ?, jakakolwiek inna?
Chcę tylko pogłębić serie, oczyścić i wykonać kilka kointegracji i działek. Nie chciałbym potrzebować kodu i implementować nowych funkcji dla każdego potrzebnego polecenia, za każdym razem używając małych fragmentów danych.
Dodano: Jestem na Windows
To nie jest pytanie o ilościowe finanse. Wysyłam to do Stack Overflow. – chrisaycock
@skan Możesz rzucić okiem na pakiet 'mmap', który został stworzony przez Jeffa Ryana (autora xts) –
Zobacz także ten post http://r.789695.n4.nabble.com/xts-timeseries-as-shared -memory-objects-with-bigmemory-package-tp3385186p3385252.html –