Próbowałem OpenCV iOS próbki, aby osiągnąć rozpoznawanie emocji twarzy. Mam próbkę OpenCV przykładowego projektu iOS "openCViOSFaceTrackingTutorial" poniżej. https://github.com/egeorgiou/openCViOSFaceTrackingTutorial/tree/master/openCViOSFaceTrackingTutorialiOS OpenCV haarcascade dla innych emocji twarzy
Ten przykładowy projekt wykorzystuje "wykrywanie twarzy", działa dobrze. Używa wyszkolonego modelu "haarcascade_frontalface_alt2.xml".
Chcę użyć tego samego projektu, ale mam haaraskadę dla innych emocji twarzy, takich jak Smutek, Niespodzianka. Szukałem, jak trenować haarascade dla emocji takich jak Smutek, Niespodzianka itp., Ale nie mogłem znaleźć żadnej wskazówki.
Czy ktoś mógłby mi doradzić, jak szkolić haarascade dla emocji takich jak Smutek, Niespodzianka itp. Do wykorzystania w tym przykładowym projekcie OpenCV iOS? Czy też będzie gotowa haarascade na emocje takie jak Sad, Surprise itp. Do wykorzystania w tej próbce iOS.
Dzięki
Witam, czy możesz przyjść na czat, aby przedyskutować więcej. Mam więcej wątpliwości w tej kwestii. – Stella
Czy mogę dostać próbkę iOS na to -> "Proponuję wyodrębnić usta i oczy z twarzy i za pomocą haarcascade i przetwarzać te prostokąty do wykrywania emocji." – Stella
Nie ma żadnej próbki iOS według mojej wiedzy dla całego procesu. Musisz to zrobić. Możesz wykryć usta i oko tak, jak wykrywasz twarz. Następnie użyj wykrytego Rect, przyciąć obraz twarzy do Mouth and Eye. A następnie Zastosuj przetwarzanie tych obrazów, aby wykryć emocje. do wykrywania emocji, tutaj jest algorytm: https://github.com/liy9393/emotion-detection/blob/master/readme.txt – Darshana