Jako programista dokonuję rewolucyjnych odkryć co kilka lat. Jestem albo przed zakrętem, albo za nim około π w fazie. Jedną z trudnych lekcji, których nauczyłem się, było to, że skalowanie OUT nie zawsze jest lepsze, często największe zyski wydajności są po przegrupowaniu i powiększeniu.Powody, dla których NIE jest zwiększanie skali w stosunku do -out?
Jakie masz powody, by skalować się w górę? Cena, wydajność, wizja, przewidywane użycie? Jeśli tak, to w jaki sposób to zadziałało?
Raz wyskalowaliśmy do kilkuset węzłów, które serializowały i buforowały niezbędne dane do każdego węzła i uruchamiały procesy matematyczne w rekordach. Wiele, wiele miliardów rekordów musiało zostać poddanych analizie (krzyżowej). Był to doskonały biznes i przypadek techniczny do zastosowania skalowania. Optymalizowaliśmy do momentu, aż przetworzyliśmy około 24 godzin danych w ciągu 26 godzin na wallclock. Naprawdę długa historia, wynajęliśmy gigantyczny (na razie) IBM pSeries, umieściliśmy na nim Oracle Enterprise, zindeksowaliśmy nasze dane i zakończyliśmy przetwarzanie tych samych 24 godzin danych w około 6 godzin. Rewolucja dla mnie.
Tak wiele systemów dla przedsiębiorstw to OLTP, a dane nie są fragmentowane, ale pożądaniem wielu jest klastrowanie lub skalowanie. Czy jest to reakcja na nowe techniki lub postrzeganą wydajność?
Czy obecnie aplikacje są ogólnie dostępne, czy też nasze materiały programistyczne są lepsze do skalowania? Czy powinniśmy/powinniśmy brać ten trend zawsze pod uwagę w przyszłości?
Subiektywny i argumentacyjny. – Malfist
Jeśli zrzucisz ostatnią linię, to naprawdę dobre pytanie. Powszechnie uważa się, że wyrzucenie większej ilości sprzętu za F5 rozwiąże wszystkie problemy. – mfeingold
Uzgodnione argumenty. Poprawiłem moje pytanie. – Xailor