Bardzo polecam przyjrzeć się projektom xarray
i dask
. Korzystanie z tych potężnych narzędzi pozwoli ci łatwo dzielić obliczenia w porcje. Daje to dwie korzyści: możesz obliczyć dane, które nie mieszczą się w pamięci, i możesz użyć wszystkich rdzeni w swojej maszynie dla lepszej wydajności. Możesz zoptymalizować wydajność, odpowiednio wybierając rozmiar porcji (patrz documentation).
Można załadować dane z netcdf robiąc coś tak prostego jak
import xarray as xr
ds = xr.open_dataset(path_file)
Jeśli chcesz kawałek danych w latach wzdłuż wymiaru czasu, a następnie określić parametr chunks
(zakładając, że współrzędnych roku nazywa się „rok”):
ds = xr.open_dataset(path_file, chunks={'year': 10})
Ponieważ pozostałe współrzędne nie pojawiają się w chunks
dict, a następnie pojedynczy kawałek zostaną wykorzystane dla nich. (Zobacz więcej szczegółów w dokumentacji here.). Będzie to przydatne w przypadku pierwszego wymogu, w którym chcesz pomnożyć każdego roku przez tablicę 2D. Można by po prostu zrobić:
ds['new_var'] = ds['var_name'] * arr_2d
Teraz xarray
i dask
są obliczeniowej swój wynik leniwie. W celu uruchomienia rzeczywistej obliczeń, można po prostu poprosić xarray
aby zapisać swój wynik z powrotem do netcdf:
ds.to_netcdf(new_file)
Obliczenia zostaje wyzwolony przez dask
, która troszczy się o podział przetwarzanie w kawałkach, a tym samym umożliwia pracę z dane, które nie mieszczą się w pamięci. Ponadto, dask
zajmie się wykorzystaniem wszystkich rdzeni procesora do obliczania porcji.
Projekty wciąż nie radzą sobie z ładnie sytuacjami, w których porcje nie "wyrównują się" dobrze do obliczeń równoległych. Ponieważ w tym przypadku graliśmy tylko w wymiarze "roku", nie spodziewamy się żadnych problemów.
Jeśli chcesz dodać pliki dwie różne netCDF razem, to jest tak proste, jak:
ds1 = xr.open_dataset(path_file1, chunks={'year': 10})
ds2 = xr.open_dataset(path_file2, chunks={'year': 10})
(ds1 + ds2).to_netcdf(new_file)
I podajemy przykładowe pełni funkcjonalny korzystając a dataset available online.
In [1]:
import xarray as xr
import numpy as np
# Load sample data and strip out most of it:
ds = xr.open_dataset('ECMWF_ERA-40_subset.nc', chunks = {'time': 4})
ds.attrs = {}
ds = ds[['latitude', 'longitude', 'time', 'tcw']]
ds
Out[1]:
<xarray.Dataset>
Dimensions: (latitude: 73, longitude: 144, time: 62)
Coordinates:
* latitude (latitude) float32 90.0 87.5 85.0 82.5 80.0 77.5 75.0 72.5 ...
* longitude (longitude) float32 0.0 2.5 5.0 7.5 10.0 12.5 15.0 17.5 20.0 ...
* time (time) datetime64[ns] 2002-07-01T12:00:00 2002-07-01T18:00:00 ...
Data variables:
tcw (time, latitude, longitude) float64 10.15 10.15 10.15 10.15 ...
In [2]:
arr2d = np.ones((73, 144)) * 3.
arr2d.shape
Out[2]:
(73, 144)
In [3]:
myds = ds
myds['new_var'] = ds['tcw'] * arr2d
In [4]:
myds
Out[4]:
<xarray.Dataset>
Dimensions: (latitude: 73, longitude: 144, time: 62)
Coordinates:
* latitude (latitude) float32 90.0 87.5 85.0 82.5 80.0 77.5 75.0 72.5 ...
* longitude (longitude) float32 0.0 2.5 5.0 7.5 10.0 12.5 15.0 17.5 20.0 ...
* time (time) datetime64[ns] 2002-07-01T12:00:00 2002-07-01T18:00:00 ...
Data variables:
tcw (time, latitude, longitude) float64 10.15 10.15 10.15 10.15 ...
new_var (time, latitude, longitude) float64 30.46 30.46 30.46 30.46 ...
In [5]:
myds.to_netcdf('myds.nc')
xr.open_dataset('myds.nc')
Out[5]:
<xarray.Dataset>
Dimensions: (latitude: 73, longitude: 144, time: 62)
Coordinates:
* latitude (latitude) float32 90.0 87.5 85.0 82.5 80.0 77.5 75.0 72.5 ...
* longitude (longitude) float32 0.0 2.5 5.0 7.5 10.0 12.5 15.0 17.5 20.0 ...
* time (time) datetime64[ns] 2002-07-01T12:00:00 2002-07-01T18:00:00 ...
Data variables:
tcw (time, latitude, longitude) float64 10.15 10.15 10.15 10.15 ...
new_var (time, latitude, longitude) float64 30.46 30.46 30.46 30.46 ...
In [6]:
(myds + myds).to_netcdf('myds2.nc')
xr.open_dataset('myds2.nc')
Out[6]:
<xarray.Dataset>
Dimensions: (latitude: 73, longitude: 144, time: 62)
Coordinates:
* time (time) datetime64[ns] 2002-07-01T12:00:00 2002-07-01T18:00:00 ...
* latitude (latitude) float32 90.0 87.5 85.0 82.5 80.0 77.5 75.0 72.5 ...
* longitude (longitude) float32 0.0 2.5 5.0 7.5 10.0 12.5 15.0 17.5 20.0 ...
Data variables:
tcw (time, latitude, longitude) float64 20.31 20.31 20.31 20.31 ...
new_var (time, latitude, longitude) float64 60.92 60.92 60.92 60.92 ...
Czy na pewno czytanie w dowolnej innej sprawie (np. Cały plik naraz) byłoby szybsze? Czy możesz spróbować z obciętym plikiem? –
Czy zrobiono [niezbędne profilowanie] (http://stackoverflow.com/questions/582336/how-can-you-profile-a-python-script)? –
Czy robisz cokolwiek z danymi roku po przeczytaniu? Czy możesz przeczytać zakres lat, np. '[1997: 2007,:,:]'? – hpaulj