2016-12-01 12 views
12

Próbowałem OpenCV iOS próbki, aby osiągnąć rozpoznawanie emocji twarzy. Mam próbkę OpenCV przykładowego projektu iOS "openCViOSFaceTrackingTutorial" poniżej. https://github.com/egeorgiou/openCViOSFaceTrackingTutorial/tree/master/openCViOSFaceTrackingTutorialiOS OpenCV haarcascade dla innych emocji twarzy

Ten przykładowy projekt wykorzystuje "wykrywanie twarzy", działa dobrze. Używa wyszkolonego modelu "haarcascade_frontalface_alt2.xml".

Chcę użyć tego samego projektu, ale mam haaraskadę dla innych emocji twarzy, takich jak Smutek, Niespodzianka. Szukałem, jak trenować haarascade dla emocji takich jak Smutek, Niespodzianka itp., Ale nie mogłem znaleźć żadnej wskazówki.

Czy ktoś mógłby mi doradzić, jak szkolić haarascade dla emocji takich jak Smutek, Niespodzianka itp. Do wykorzystania w tym przykładowym projekcie OpenCV iOS? Czy też będzie gotowa haarascade na emocje takie jak Sad, Surprise itp. Do wykorzystania w tej próbce iOS.

Dzięki

Odpowiedz

4

można przeczytać tutorial w jaki sposób wygenerować plik haarcascade, ale generowanie haarcascade dla emocji nie jest łatwym zadaniem.

Proponuję wyodrębnić usta i oko z twarzy i za pomocą haarkozady i przetworzyć te prostokąty w celu wykrycia emocji. możesz uzyskać gaarcaskadę na usta i oko od here. Mouth and Eye to skomplikowana funkcja, więc nie zadziała, jeśli spróbujesz ją znaleźć na całym obrazie, najpierw znajdź przednią twarz i spróbuj wykryć usta i oko tylko w obrębie prostokąta twarzy.

Dostępne są biblioteki o otwartym dostępie do github w celu detekcji emocji, chociaż nie są one przeznaczone dla ios, można zastosować podobny algorytm do implementacji w ios.

+0

Witam, czy możesz przyjść na czat, aby przedyskutować więcej. Mam więcej wątpliwości w tej kwestii. – Stella

+0

Czy mogę dostać próbkę iOS na to -> "Proponuję wyodrębnić usta i oczy z twarzy i za pomocą haarcascade i przetwarzać te prostokąty do wykrywania emocji." – Stella

+0

Nie ma żadnej próbki iOS według mojej wiedzy dla całego procesu. Musisz to zrobić. Możesz wykryć usta i oko tak, jak wykrywasz twarz. Następnie użyj wykrytego Rect, przyciąć obraz twarzy do Mouth and Eye. A następnie Zastosuj przetwarzanie tych obrazów, aby wykryć emocje. do wykrywania emocji, tutaj jest algorytm: https://github.com/liy9393/emotion-detection/blob/master/readme.txt – Darshana