ja też sobie coś napisane, że po prostu wykorzystuje interfejs OpenCV Python i nie korzystać scipy
. drawMatches
jest częścią OpenCV 3.0.0 i nie jest częścią OpenCV 2, którego aktualnie używam. Mimo że spóźniam się na imprezę, oto moja własna implementacja, która naśladuje drawMatches
najlepiej jak potrafię.
Dostarczyłem własne obrazy, w których jeden jest z kamery, a drugi to ten sam obraz, ale obrócony o 55 stopni w kierunku przeciwnym do ruchu wskazówek zegara.
Podstawowym założeniem tego, co napisałem, jest to, że przydzielam wyjściowy obraz RGB, w którym liczba wierszy jest maksymalną z dwóch obrazów, aby pomieścić oba obrazy w wyjściowym obrazie, a kolumny są po prostu podsumowaniem obu kolumn razem. Umieszczam każdy obraz w odpowiednich miejscach, a następnie przechodzę przez pętlę wszystkich dopasowanych punktów kluczowych. Wyodrębniam punkty kluczowe pasujące między dwoma obrazami, a następnie wyprowadzam ich współrzędne. Następnie rysuję koła w każdej z wykrytych lokalizacji, a następnie narysuję linię łączącą te kręgi.
Należy pamiętać, że wykryty punkt kluczowy na drugim obrazie odnosi się do własnego układu współrzędnych. Jeśli chcesz umieścić to w ostatecznym obrazie wyjściowym, musisz przesunąć współrzędne kolumny przez liczbę kolumn z pierwszego obrazu tak, aby współrzędne kolumny były zgodne z układem współrzędnych obrazu wyjściowego .
Bez zbędnych ceregieli:
import numpy as np
import cv2
def drawMatches(img1, kp1, img2, kp2, matches):
"""
My own implementation of cv2.drawMatches as OpenCV 2.4.9
does not have this function available but it's supported in
OpenCV 3.0.0
This function takes in two images with their associated
keypoints, as well as a list of DMatch data structure (matches)
that contains which keypoints matched in which images.
An image will be produced where a montage is shown with
the first image followed by the second image beside it.
Keypoints are delineated with circles, while lines are connected
between matching keypoints.
img1,img2 - Grayscale images
kp1,kp2 - Detected list of keypoints through any of the OpenCV keypoint
detection algorithms
matches - A list of matches of corresponding keypoints through any
OpenCV keypoint matching algorithm
"""
# Create a new output image that concatenates the two images together
# (a.k.a) a montage
rows1 = img1.shape[0]
cols1 = img1.shape[1]
rows2 = img2.shape[0]
cols2 = img2.shape[1]
out = np.zeros((max([rows1,rows2]),cols1+cols2,3), dtype='uint8')
# Place the first image to the left
out[:rows1,:cols1,:] = np.dstack([img1, img1, img1])
# Place the next image to the right of it
out[:rows2,cols1:cols1+cols2,:] = np.dstack([img2, img2, img2])
# For each pair of points we have between both images
# draw circles, then connect a line between them
for mat in matches:
# Get the matching keypoints for each of the images
img1_idx = mat.queryIdx
img2_idx = mat.trainIdx
# x - columns
# y - rows
(x1,y1) = kp1[img1_idx].pt
(x2,y2) = kp2[img2_idx].pt
# Draw a small circle at both co-ordinates
# radius 4
# colour blue
# thickness = 1
cv2.circle(out, (int(x1),int(y1)), 4, (255, 0, 0), 1)
cv2.circle(out, (int(x2)+cols1,int(y2)), 4, (255, 0, 0), 1)
# Draw a line in between the two points
# thickness = 1
# colour blue
cv2.line(out, (int(x1),int(y1)), (int(x2)+cols1,int(y2)), (255, 0, 0), 1)
# Show the image
cv2.imshow('Matched Features', out)
cv2.waitKey(0)
cv2.destroyAllWindows()
aby pokazać, że to działa, tu są dwa obrazy, które użyłem:
użyłem OpenCV-tych Detektor ORB do wykrywania punktów kluczowych, i użył znormalizowanej odległości Hamminga jako miary odległości dla podobieństwa, ponieważ jest to deskryptor binarny. Jako takie:
import numpy as np
import cv2
img1 = cv2.imread('cameraman.png') # Original image
img2 = cv2.imread('cameraman_rot55.png') # Rotated image
# Create ORB detector with 1000 keypoints with a scaling pyramid factor
# of 1.2
orb = cv2.ORB(1000, 1.2)
# Detect keypoints of original image
(kp1,des1) = orb.detectAndCompute(img1, None)
# Detect keypoints of rotated image
(kp2,des2) = orb.detectAndCompute(img2, None)
# Create matcher
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
# Do matching
matches = bf.match(des1,des2)
# Sort the matches based on distance. Least distance
# is better
matches = sorted(matches, key=lambda val: val.distance)
# Show only the top 10 matches
drawMatches(img1, kp1, img2, kp2, matches[:10])
Jest to obraz pojawia się:
Dzięki za odpowiedź !! – user1433201