W dzisiejszych czasach wyzwaniem było stworzenie hurtowni danych do przechowywania i przetwarzania ogromnej ilości danych. Szacowana kwota to ponad 7 miliardów wydarzeń dziennie. Dane powinny być przechowywane przez 7 dni. Średni rozmiar wydarzenia to ~ 0,5 - 1 Kb. Musimy przetworzyć dane na:Wybieranie hurtowni danych dużych
- generowanie raportów;
- modele pociągów.
Obecnie jestem oceny:
- Google BigQuery
- Redshift
- Stratio + Cassandra + AWS + EMR + EBS
- Cloudera + AWS
Więc Zainteresowany:
- rozwiązanie używać wewnątrz firmy (ram, setup, bazy danych, ilość węzłów, itp)
- jakieś przykłady realne koszty/porównanie jeśli to możliwe
- złożoność zarządzania (devops)
Pytania dotyczące ** profesjonalnej administrowania infrastrukturą związaną z serwerem lub siecią ** nie dotyczą tematu przepełnienia stosu, chyba że dotyczą bezpośrednio narzędzi programujących lub programistycznych. Możesz uzyskać pomoc w [Błąd serwera] (http://serverfault.com/tour). –
@MoralesBatovski to nie jest, temat jest większy i obejmuje rozwiązania programowe i frameworki takie jak z firmy Stratio i Cloudera. A bigquery jest elastyczny i działa tylko poprzez API ... –
zbyt szeroki i offtopic. –