2017-09-06 43 views
5

Chcę interpolować jedną oś danych wewnątrz trójwymiarowej tablicy. Podane wartości x dla różnych wartości różnią się nieznacznie, ale wszystkie powinny być odwzorowane na te same wartości x.Szybka interpolacja jednej osi tablicy

Od podanych wartości x nie są identyczne, obecnie I wykonaj następujące czynności:

import numpy as np 
from scipy import interpolate 

axes_have = np.ones((2, 72, 2001)) 
axes_have *= np.linspace(0, 100, 2001)[None,None,:] 
axes_have += np.linspace(-0.3, 0.3, 144).reshape((2, 72))[:,:,None] 

arr = np.sin(axes_have) 
arr *= np.random.random((2, 72))[:,:,None] 

axis_want = np.linspace(0, 100, 201)  

arr_ip = np.zeros((2, 72, 201)) 
for i in range(arr.shape[0]): 
    for j in range(arr.shape[1]): 
     ip_func = interpolate.PchipInterpolator(axes_have[i,j,:], arr[i,j,:], extrapolate=True) 
     arr_ip[i,j,:] = ip_func(axis_want) 

Używanie dwóch zagnieżdżonych for -loops zaskoczeniem jest bardzo powolny.

Czy istnieje sposób na zwiększenie prędkości? Może robiąc magię lub paralelę NumPy.

+0

czy możesz dodać próbkę 'arr'? – DJK

+0

Wystąpił błąd w moim przykładzie, który został już naprawiony. 'arr' powinien teraz zostać podany. – leviathan

Odpowiedz

5

Zrobiłem kilka wstępnych testów i wydaje się, że większość czasu spędzasz na generowaniu rzeczywistych funkcji interpolacji. Nie wygląda na to, że wektoryzacja przyspieszy to o tonę, ale ułatwia równoległość (co zwiększa prędkość). Oto przykład.

import numpy as np 
from scipy import interpolate 
import timeit 
import multiprocessing 



def myfunc(arg): 
    x, y = arg 
    return interpolate.PchipInterpolator(x, 
             y, 
             extrapolate=True) 

p = multiprocessing.Pool(processes=8) 
axes_have = np.ones((2, 72, 2001)) 
axes_have *= np.linspace(0, 100, 2001)[None, None, :] 
axes_have += np.linspace(-0.3, 0.3, 144).reshape((2, 72))[:, :, None] 

arr = np.sin(axes_have) 
arr *= np.random.random((2, 72))[:, :, None] 

axis_want = np.linspace(0, 100, 201) 

arr_ip = np.zeros((2, 72, 201)) 
s_time1 = timeit.default_timer() 
for i in range(arr.shape[0]): 
    for j in range(arr.shape[1]): 
     ip_func = interpolate.PchipInterpolator(axes_have[i, j, :], 
               arr[i, j, :], 
               extrapolate=True) 
     arr_ip[i, j, :] = ip_func(axis_want) 
elapsed1 = timeit.default_timer() - s_time1 

s_time2 = timeit.default_timer() 
flatten_have = [y for x in axes_have for y in x] 
flatten_arr = [y for x in arr for y in x] 
interp_time = timeit.default_timer() 
funcs = p.map(myfunc, zip(flatten_have, flatten_arr)) 
interp_elapsed = timeit.default_timer() - interp_time 
arr_ip = np.asarray([func(axis_want) for func in funcs]).reshape(2, 72, 201) 
elapsed2 = timeit.default_timer() - s_time2 

print("Elapsed 1: {}".format(elapsed1)) 
print("Elapsed 2: {}".format(elapsed2)) 
print("Elapsed interp: {}".format(interp_elapsed)) 

Typowe wyników (należy zwrócić uwagę, że vectorized realizacja jest prawie taka sama prędkość bez parallelization i że mam 2 rdzenie, dzięki czemu czas pracy powinien być w przybliżeniu (oryginalna czas/liczba rdzeni)):

Elapsed 1: 10.4025919437 
Elapsed 2: 5.11409401894 
Elapsed interp: 5.10987687111 

Nie zrozum mnie źle, może być algorytmiczny sposób, aby zrobić to szybciej, ale wydaje się, że jest to najprostszy sposób na natychmiastowe przyspieszenie, ponieważ problem jest zawstydzająco równoległy.