Witam Jestem nowy w Hadoop i jest to FileSystem. Widziałem dwa różne przykłady WordCount przy użyciu JobConf
i Configuration
. Jaka jest w nich różnica.JobConf v/s Konfiguracja dla Hadoop 1.0.4
Studiowałem, że JobConf
był częścią starego pakietu org.apache.hadoop.mapred
(to przestarzałe w 0.20.x), ale Konfiguracja jest częścią nowego pakietu org.apache.hadoop.mapreduce
. Ale teraz w wersji 1.0.4 jest niezaakceptowany.
Obecnie mamy dwa sposoby uruchamiania zadań zmniejszania map w języku Java, jednym jest używanie (rozszerzanie) klas w pakiecie org.apache.hadoop.mapreduce
, a inne realizowane są za pomocą pakietów w pakiecie org.apache.hadoop.mapred
.
chcę wiedzieć:
Jaka jest różnica między
mapred
imapreduce
struktury pakiet i dlaczegomapred
jest un-przestarzałe?Które podejście jest lepsze dla wersji 1.0.4 i dlaczego?
JobConf
lubConfiguration
?Co jest lepsze dla wersji 1.0.4?
mapred
lubmapreduce
?
możliwy duplikat [czy lepiej użyć pakietu mapred lub mapreduce, aby utworzyć zadanie Hadoop?] (Http://stackoverflow.com/questions/7598422/is-it-better-to-use-the- mapred-or-the-mapreduce-package-to-create-a-hadoop-job) –
Przeczytałem tę odpowiedź. Takie podejście było dla v0.20 i v0.21/22. Ale tutaj pytam o v1.0.4. Nie łącz tego z tym. I nie podejmuj żadnej decyzji, zanim zrozumiesz ją całkowicie. –
1.0 to nic innego jak wersja między 0.20 a 0.22. Zobacz go jako wypolerowaną wersję 20.x. Należy szukać istniejących odpowiedzi przed dodaniem nowego pytania, nie wspominając już o badaniu numeracji wersji. –