Jeśli masz do czynienia ze scenariuszem ELT, gdzie trzeba załadować ogromne ilości plików i przetwarza je później jak filtr, transformacji i ładowania go do tranditional baz danych Analytics można użyć Hadoop załadować pliki a następnie Netezza jako miejsce docelowe lub obszar hurtowni danych. Za pomocą hadoopu możesz umieścić wszystkie swoje pliki w HDFS, a następnie odczytać za pomocą narzędzia ETL w celu przekształcenia, filtrowania itp. Lub użyć Hive SQL, aby zapisać zapytanie w tych plikach. Jednak magazyn danych oparty na hadoopie HIve nie obsługuje aktualizacji i nie obsługuje wszystkich instrukcji SQL. Dlatego lepiej jest odczytać te pliki z HDFS, zastosować filtry, transformację i załadować wynik do tradycyjnego urządzenia hurtowni danych, takiego jak netezza, aby pisać zapytania dla kostek.
Jeśli codziennie ładujesz GB danych do Netezza z lądowaniem, postojami i obszarem mart, najprawdopodobniej skończy się to na użyciu dużej ilości miejsca. W tym scenariuszu możesz sprawić, że przestrzeń lądowania będzie na odcinku, a następnie sprawisz, że obszary postoju i martwe będą netezzą. Jeśli zapytania są proste i nie wykonuje się bardzo skomplikowanych filtrów itp. Lub aktualizacje źródła mogą być w stanie zarządzać wszystkim za pomocą hadoop.
Podsumowując, hadoop jest idealny do dużych ilości danych, ale nie obsługuje wszystkich funkcji tradycyjnej hurtowni danych.
Możesz sprawdzić ten link, aby zobaczyć różnice: http://dwbitechguru.blogspot.ca/2014/12/how-to-select-between-hadoop-vs-netezza.html
Chcemy tylko wspomnieć, że obecne prędkości ładowania w systemach Netezza wynoszą obecnie 2 TB +/godz. – cairnz