Cechą detektor jest algorytmem, który wykonuje zdjęcie i wyjść (tj współrzędne pikseli) lokalizacje znacznych obszarów w obrazie. Przykładem tego jest corner detector, który wyprowadza lokalizacje narożników na obrazie, ale nie przekazuje żadnych innych informacji o wykrytych funkcjach.
Cechą deskryptor jest algorytm bierze obrazu i wyprowadza funkcji deskryptorów/wektory cech. Deskryptory funkcji kodują interesujące informacje w szeregu liczb i działają jako rodzaj "odcisku palca" liczbowego, który można wykorzystać do odróżnienia jednej cechy od drugiej. Idealnie ta informacja byłaby niezmienna w ramach transformacji obrazu, dzięki czemu możemy znaleźć tę funkcję ponownie, nawet jeśli obraz zostanie w jakiś sposób przekształcony. Przykładem może być SIFT, który koduje informacje o lokalnych gradientach obrazu sąsiedztwa liczbami wektora cech. Inne przykłady, o których można przeczytać to: HOG i SURF.
EDIT: Jeśli chodzi o wyposażone detektory, „Location” może również zawierać numer opisujący rozmiar lub skalę funkcji. Dzieje się tak, ponieważ rzeczy, które wyglądają jak narożniki, gdy "powiększone" mogą nie wyglądać jak narożniki, gdy "pomniejszono", a więc określenie informacji o skali jest ważne. Dlatego zamiast używać pary (x,y)
jako miejsca w "przestrzeni obrazu", możesz mieć potrójną (x,y,scale)
jako lokalizację w "skali przestrzeni".
Może to pomoże http://stackoverflow.com/questions/6832933/difference-between-feature-detection-and-descriptor-extraction?rq=1 – user1538798
Dzięki za szybką odpowiedź, niestety, doprowadziło to do jeszcze więcej zamieszanie. – Richard