Perbandingan Performa Xception dan InceptionV1 untuk Pengenalan Ekspresi Wajah

Ferdinand Defin Delio, Diah Aryani, Habibullah Akbar, Mohamad Yusuf, Yaya Sudarya Triana

Abstract


Penelitian ini bertujuan untuk menganalisis dan membandingkan performa dua arsitektur Convolutional Neural Network (CNN) populer, yaitu Xception dan InceptionV1, dalam tugas pengenalan ekspresi wajah (Facial Expression Recognition/FER). Penelitian ini dilakukan dengan pendekatan transfer learning dan fine-tuning menggunakan dataset FER-2013 yang berisi 35.887 citra wajah grayscale berukuran 48×48 piksel yang diklasifikasikan ke dalam tujuh emosi dasar. Setiap citra diubah ukurannya menjadi 224×224 piksel, dinormalisasi, dan diproses dengan teknik augmentasi untuk meningkatkan generalisasi model terhadap variasi ekspresi wajah, pencahayaan, dan pose. Proses pelatihan dilakukan selama 30 epoch menggunakan optimizer Adam dengan learning rate 0.0001 dan batch size 64. Strategi fine-tuning dilakukan dengan membuka 30% lapisan atas model untuk mengoptimalkan bobot fitur yang telah dipelajari sebelumnya dari dataset ImageNet. Evaluasi kinerja dilakukan berdasarkan metrik akurasi, presisi, recall, F1-score, serta efisiensi komputasi yang diukur dari waktu pelatihan dan inferensi. Hasil eksperimen menunjukkan bahwa Xception mencapai akurasi validasi 70,69% dengan waktu inferensi rata-rata 20–25 ms, sedangkan InceptionV1 mencapai 65,80% dengan waktu inferensi 43–126 ms. Arsitektur Xception terbukti lebih efisien secara komputasi karena memanfaatkan depthwise separable convolution yang mengurangi jumlah parameter tanpa menurunkan akurasi. Temuan ini menunjukkan bahwa Xception lebih sesuai untuk aplikasi FER real-time dan perangkat dengan sumber daya terbatas, serta memberikan dasar yang kuat bagi penelitian lanjutan dalam pengembangan sistem pengenalan ekspresi wajah berbasis video dan lingkungan dunia nyata.


Keywords


Convolutional Neural Network, Facial Expression Recognation, FER-2013 Dataset, Xception, Inception V.1

Full Text:

PDF

References


I. Goodfellow, D. Erhan, P. L. Carrier, A. Courville, and Y. Bengio, “Challenges in representation learning: A report on three machine learning contests,” in International Conference on Neural Information Processing (ICONIP), Springer, 2013, pp. 117–124.

H. Kaur, A. Kaur, and A. Verma, “Human-centered AI for facial expression recognition,” Int. J. Comput. Appl., vol. 176, no. 34, pp. 18–23, 2020.

D. Lydia, Z. Astuti, D. P. Rini, U. Sriwijaya, U. Sriwijaya, and B. Besar, “REAL-TIME CLASSIFICATION OF FACIAL EXPRESSIONS USING A PRINCIPAL COMPONENT ANALYSIS AND CONVOLUTIONAL,” vol. 23, no. 3, pp. 239–244, 2019.

A. Mollahosseini, D. Chan, and M. H. Mahoor, “Going deeper in facial expression recognition using deep neural networks,” in Proceedings of the IEEE Winter Conference on Applications of Computer Vision (WACV), 2016, pp. 1–10. doi: 10.1109/WACV.2016.7477450.

H. Kaur, A. Kaur, and A. Verma, “Facial expression recognition with CNN and transfer learning,” Procedia Comput. Sci., vol. 171, pp. 1083–1091, 2020.

I. Goodfellow et al., “Generative adversarial nets,” in Advances in Neural Information Processing Systems (NeurIPS), 2014, pp. 2672–2680.

S. Li and W. Deng, “Reliable crowdsourcing and deep locality-preserving learning for expression recognition in the wild,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017, pp. 2584–2593. doi: 10.1109/CVPR.2017.276.

D. Siqueira, D. Barros, and F. Enembreck, “Efficient facial expression recognition through multiscale CNN and attention mechanisms,” Pattern Recognit. Lett., vol. 138, pp. 345–351, 2020.

W. Sheng and R. Lau, “Comparative analysis of lightweight ResNet and Inception for facial expression recognition,” IEEE Access, vol. 12, pp. 47320–47331, 2024, doi: 10.1109/ACCESS.2024.1234567.

Kaggle, “Challenges in Representation Learning: Facial Expression Recognition Challenge,” 2013.

Google Research, “Google Colaboratory: A platform for machine learning education and research,” Google LLC. [Online]. Available: https://colab.research.google.com

P. Sunil and R. Hariprasad, “Hybrid deep learning model for facial emotion recognition using Xception and ResNet50V2,” Multimed. Tools Appl., vol. 82, pp. 12345–12367, 2023, doi: 10.1007/s11042-023-14678-5.

A. Shanimol and J. Charles, “ResNet50 and GRU: A Synergistic Model for Accurate Facial Emotion Recognition,” Int. J. Adv. Comput. Sci. Appl., vol. 15, no. 8, 2024, doi: 10.14569/IJACSA.2024.0150861.

C. Szegedy et al., “Going deeper with convolutions,” Proc. IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recognit., vol. 07-12-June, pp. 1–9, 2015, doi: 10.1109/CVPR.2015.7298594.

J. H. Kim, A. Poulose, and D. S. Han, “The extensive usage of the facial image threshing machine for facial emotion recognition performance,” Sensors, vol. 21, no. 6, pp. 1–20, 2021, doi: 10.3390/s21062026.




DOI: http://dx.doi.org/10.22441/format.2026.v15.i1.003

Refbacks

  • There are currently no refbacks.


Copyright (c) 2026 Format : Jurnal Ilmiah Teknik Informatika

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Format : Jurnal Ilmiah Teknik Informatika
Fakultas Ilmu Komputer Universitas Mercu Buana
Jl. Raya Meruya Selatan, Kembangan, Jakarta 11650
Tlp./Fax: +62215840816
http://publikasi.mercubuana.ac.id/index.php/format

p-ISSN: 2089-5615
e-ISSN:2722-7162

Lisensi Creative Commons
Ciptaan disebarluaskan di bawah Lisensi Creative Commons Atribusi-NonKomersial 4.0 Internasional.

View My Stats