2013-02-27 12 views
7

Próbuję zsynchronizować kilka dużych wiader na Amazon S3.Synchronizacja S3cmd zwraca "zabity"

Po uruchomieniu polecenia S3cmd --recursive otrzymuję odpowiedź "zabity".

Czy ktoś wie, co może oznaczać? Czy istnieje limit liczby plików, które można zsynchronizować w S3?

Thx za pomoc

Odpowiedz

7

Po przeczytaniu wokół niego wygląda program ma problemy zużycie pamięci. W szczególności może to spowodować OOM killer (zabójca pamięci), aby przerwać proces i zapobiec ugrzęźnięciu systemu. Szybkie spojrzenie na dmesg po tym, jak proces zostanie zabity, będzie generalnie pokazywać, czy tak jest, czy nie.

Mając to na uwadze, zapewniam, że jesteś w najnowszym wydaniu, w którym zauważono problemy z pamięcią, które zostały rozwiązane w release notes.

+0

Po prawej przycisk. Jednak po zainstalowaniu s3cmd z najnowszego źródła proces wciąż ginie. Być może będę musiał podważyć pamięć w mojej instancji EC2 lub wykonać jeden z następujących kroków: http://stackoverflow.com/a/15266865/242426 – plainjimbo

+0

Ja też się na tym natknąłem, ale biegałem u włóczęgi. Z napiwkiem, że był to problem z pamięcią, sprawdziłem ustawienia włóczęgi i stwierdziłem, że uruchomiłem vm z tylko 256 MB. Kiedy to zrobiłem, problem został rozwiązany. – SunSparc

+0

To samo dotyczyło zwiększenia pamięci (w moim przypadku z 512 MB do 2 GB). – Pavel

0

Stare pytanie, ale chciałbym powiedzieć, że zanim spróbujesz dodać więcej pamięci fizycznej lub zwiększyć pamięć vm, spróbuj po prostu dodać więcej swapów.

Zrobiłem to z 4 serwerami (ubuntu i centos) z niskim RAM (łącznie 700MB, tylko 15MB) i teraz działa dobrze.