Potrzebuję utworzyć obraz Docker (i w konsekwencji kontenery z tego obrazu), które używają dużych plików (zawierających dane genomowe, osiągając rozmiar ~ 10 GB).Ogromne pliki w kontenerach Docker
Jak mam zoptymalizować ich użycie? Czy mam je zawrzeć w kontenerze (takim jak COPY large_folder large_folder_in_container
)? Czy istnieje lepszy sposób odwoływania się do takich plików? Chodzi o to, że brzmi to dziwnie, gdybym wepchnął taki kontener (który byłby> 10 GB) do mojego prywatnego repozytorium. Zastanawiam się, czy istnieje sposób dołączenia do pojemnika pewnego rodzaju objętości, bez pakowania wszystkich tych GB-ów razem.
Dziękuję.
Jest to na pewno przydatne. Ale martwię się o uszczęśliwiony system, kiedy idę i wyskakuje obraz z rejestru (aby uruchomić kontener). Próbuję dopasować to do rurociągu CI/CD, który wymagałby (podczas fazy wdrażania) załadowania kontenera na nową instancję OpenStack (poprzez Packer). Ponieważ taka instancja jest zawsze inna, wymagałoby to za każdym razem, gdy przechodzę przez potok CD, aby załadować ogromny kontener do nowo utworzonej instancji OpenStack (bez wcześniej załadowanej warstwy), a tym samym do przenoszenia 10 GB przy każdym zatwierdzeniu. Czy to najlepsze rozwiązanie, jakie można znaleźć? – Eleanore
@Eananore Po załadowaniu obrazu do lokalnego rejestru dokowania twojego urządzenia podrzędnego kontener rozpoczyna się natychmiast. Ale jeśli obraz się zmienia, najlepiej byłoby budować przyrostowo nowy obraz oparty na poprzednim obrazie i uwzględniać tylko zmiany. Biorąc to pod uwagę, jeśli * wszystkie * 10 GB zmienia się z jednego obrazu na następny ... masz rzeczywiście problem. – VonC