Klasifikasi Emosi Menggunakan Convolutional Neural Networks

Authors

  • Ripan Septian Teknik Elektro Universitas Jenderal Achmad Yani
  • Dede Irawan Saputra Teknik Elektro Universitas Jenderal Achmad Yani
  • Susanto Sambasri Teknik Elektro Universitas Jenderal Achmad Yani

Keywords:

overfit, convolutional neural networks, facial emotion recognition

Abstract

Berbagai studi mengenai klasifikasi emosi telah dilakukan dengan menggunakan beberapa metode tertentu, namun masih terdapat permasalahan dalam performansi untuk proses data yang banyak, termasuk permasalahan dalam hal sistem yang overfit. Pada paper ini diimpelentasikan metode convolutional neural networks (CNN) untuk mengidentifikasi emosi pada citra wajah dengan tujuh jenis emosi yakni marah, senang, sedih, jijik, terkejut, takut dan netral. Metode CNN mampu mengekstraksi ciri tersembunyi pada citra dengan melakukan proses konvolusi, selain itu dalam pemrosesan data, metode ini dapat mengurangi overfit dibandingkan metode lainnya, dengan menggunakan augmentasi pada data serta penambahan regulasi seperti dropout. Dengan menggunakan dataset facial expression recognition (FER) dilakukan proses training dengan menganalisis perubahan nilai akurasi berdasarkan parameter batch, epoch, dan dropout. Hasil dari analisis di dapat parameter optimal batch 32, epoch 100 dan dropout 0.6 dengan akurasi training 61.51%, akurasi validasi 64.54%, training loss 4.29% dan validation loss 3.96%. Dari parameter optimal tersebut diujikan pada data asing sebanyak 3589 data dan menghasilkan nilai akurasi 67%, presisi 67% dan recall 66%.

Downloads

Download data is not yet available.

References

Herlina, Isyarat Wajah. 2010.

Deng, H.B., Jin, L.W., Zhen, L.X., dan Huang, J.C., “A New Facial Expression Recognition Method Based On Local Gabor Filter Bank and PCA plus LDA”, international Journal of Information Technology, 11, 11, 86 – 96, 2005.

Abidin, Z, dan Harjoko, A., “A Neural Network based Facial Expression Recognition using Fisherface”. International Journal of Computer Applications, 59, 11, 30-44, 2012.

Lekshmi V., P., dan Sasikumar, M., “A Neural Network Based Facial Expression Analysis using Gabor Wavelets”, World Academy of Science, Engineering and Technology, Vol. 42, 563 567, 2008.

Kulkarni, S.S., “Facial Image Based Mood Recognition Using Committee Neural Networks”, Thesis, Department of Biomedical Engineering University of Akron, 2006.

Krizhevsky Alex, Sutskever Ilya, dan Hinton Geoffrey E, “ImageNet Classification with Deep Convolutional Neural Networks”, in ImageNet Large Scale Visual Recognition Competition, 2012.

Arriaga Octavio, Ploger Paul G., dan Valdenegro Matias, “Real-time Convolutional Neural Networks for Emotion and Gender Classification”, arXiv:1710.07557v1, 2017.

Fausett Lauren V., Fundamentalof Neural Networks, 1994.

Bishop, C. H., Pattern Recognition and Machine Learning, 2006.

Goodfellow Ian, Bengio Yoshua and Courville Aaron, Deep Learning, 2016.

Albawi Saad, Mohammed Tareq Abed dan Alzawi Saad, “Understanding of a Convolutional Neural Network”, ICET, 2017.

LeCun, Y., Bottou, L., Bengio, Y. and Haffner, P., “Gradientbased learning applied to document recognition”. Proceedings of the IEEE, 86(11), pp.2278-2324, 1998.

Zufar Muhamad dan Setiyono Budi, “Convolutional Neural Networks untuk Pengenalan Wajah Secara Real-Time”, Institut Teknologi Sepuluh Nopember, Jurnal Sains dan Seni ITS Vol. 5, No.2, 2016.

P. I. Wilson dan D. J. Fernandez, “Facial Feature Detection Using Haar Classifiers”, Journal of Computing Sciences in Colleges, pp. 127-133, 2006.

Wu Haibing, Xiaodong Gu, “Max-Pooling Dropout for Regularization of Convolutional Neural Networks”, di ICONIP, 2015, Lecture Notes in Computer Science vol. 9489.

Powers David M. W., “Evaluation: From Precisio, Recall and F-Factor to ROC, Informedness, Markedness & Corelation”, Finders University of South America, Technical Report SIE-07-001, 2007.

Published

20-03-2020

How to Cite

[1]
R. Septian, D. I. Saputra, and S. Sambasri, “Klasifikasi Emosi Menggunakan Convolutional Neural Networks”, SENTER, pp. 53–62, Mar. 2020.