Implementasi Metode CNN Multi-Scale Input dan Multi-Feature Network untuk Dugaan Kanker Payudara
DOI:
https://doi.org/10.31328/jointecs.v7i2.3637Keywords:
kecerdasan buatan, klasifikasi multi-kelas, machine learning, convolutional neural network, prediksi kanker payudaraAbstract
Menurut WHO, kanker payudara merupakan penyumbang angka morbiditas tertinggi pada tahun 2020 dengan jumlah 2,26 juta kasus. Dalam menentukan prognosis pasien diperlukan berbagai pemeriksaan, salah satunya adalah analisis histopatologi. Namun, analisis histopatologi adalah proses yang relatif melelahkan dan memakan waktu. Dengan berkembangnya metode deep learning, ilmu computer vision dapat diterapkan untuk pendeteksian kanker pada citra medis, yang diharapkan dapat membantu meningkatkan akurasi prognosis dan kecepatan identifikasi yang dilakukan oleh para ahli. Berdasarkan pengetahuan tersebut, penelitian ini bertujuan untuk menerapkan klasifikasi multi-kelas (normal, benign, in situ, invasif) dan prediksi citra jaringan digital normal atau telah diduga memiliki sel kanker menggunakan Convolutional Neural Network dengan multi-scale input dan multi-feature network (CNN-G). Dataset yang digunakan adalah 400 data citra jaringan payudara yang diklasifikasikan menjadi empat kelas dan diberi label oleh ahli patologi. Hasil akurasi yang diperoleh dari pelatihan adalah 0,5375~0,54 dan berhasil membuat peningkatan jika dibandingkan dengan model tunggal (CNN14, CNN42, CNN84). Metode evaluasi model lain yang dilakukan adalah confusion matrix, precision, recall, dan f-1 score.ÂReferences
A. Yusnina, I. Muhimmah, and I. Fidianingsih, “Ekstraksi Fitur untuk Sel Abnormal Pleomorfik pada Kanker Payudara,†Automata, vol. 2, No 2, 2021, [Online]. Available: https://journal.uii.ac.id/AUTOMATA/article/view/19539.
A. S. Hyperastuty, A. Setijo R, and R. R., “Artificial Neural Network dalam Menentukan Grading Histopatologi Kanker Payudara,†J. Biosains Pascasarj., vol. 19, no. 2, p. 176, 2017, doi: 10.20473/jbp.v19i2.2017.176-188.
S. A. Taghanaki, J. Kawahara, B. Miles, and G. Hamarneh, “Pareto-optimal Multi-objective Dimensionality Reduction Deep Auto-encoder for Mammography Classification,†Comput. Methods Programs Biomed., vol. 145, pp. 85–93, 2017, doi: 10.1016/j.cmpb.2017.04.012.
R. Amini, I. Muhimmah, and I. Fidianingsih, “Analisis Fitur untuk Grading Abnormal Sel Mitosis Pada Kasus Kanker Payudara,†Automata, vol. Vol 2, No, pp. 3–7, 2021, [Online]. Available: https://journal.uii.ac.id/AUTOMATA/article/view/17384.
C. Zhu, F. Song, Y. Wang, H. Dong, Y. Guo, and J. Liu, “Breast Cancer Histopathology Image Classification through Assembling Multiple Compact CNNs,†BMC Med. Inform. Decis. Mak., vol. 19, no. 1, pp. 1–17, 2019, doi: 10.1186/s12911-019-0913-x.
T. S. Sheikh, Y. Lee, and M. Cho, “Histopathological Classification of Breast Cancer Images using a Multi-scale Input and Multi-feature Network,†Cancers (Basel)., vol. 12, no. 8, pp. 1–21, 2020, doi: 10.3390/cancers12082031.
H. Che, L. G. Brown, D. J. Foran, J. L. Nosher, and I. Hacihaliloglu, “Liver Disease Classification from Ultrasound using Multi-scale CNN,†Int. J. Comput. Assist. Radiol. Surg., vol. 16, no. 9, pp. 1537–1548, 2021, doi: 10.1007/s11548-021-02414-0.
C. Shorten and T. M. Khoshgoftaar, “a Survey on Image Data Augmentation for Deep Learning,†J. Big Data, vol. 6, no. 1, 2019, doi: 10.1186/s40537-019-0197-0.
Z. Wang et al., “Breast Cancer Detection Using Extreme Learning Machine Based on Feature Fusion with CNN Deep Features,†IEEE Access, vol. 7, no. c, pp. 105146–105158, 2019, doi: 10.1109/ACCESS.2019.2892795.
A. Anton, N. F. Nissa, A. Janiati, N. Cahya, and P. Astuti, “Application of Deep Learning Using Convolutional Neural Network (CNN) Method For Women’s Skin Classification,†Sci. J. Informatics, vol. 8, no. 1, pp. 144–153, 2021, doi: 10.15294/sji.v8i1.26888.
S. Khan, H. Rahmani, S. A. A. Shah, and M. Bennamoun, A Guide to Convolutional Neural Networks for Computer Vision, vol. 8, no. 1. New York: Morgan & Claypool Publishers, 2018.
B. Sekeroglu and I. Ozsahin, “Detection of COVID-19 from Chest X-Ray Images Using Convolutional Neural Networks,†SLAS Technol., vol. 25, no. 6, pp. 553–565, 2020, doi: 10.1177/2472630320958376.
M. B. Bejiga, A. Zeggada, A. Nouffidj, and F. Melgani, “a Convolutional Neural Network Approach for Assisting Avalanche Search and Rescue Operations with UAV Imagery,†Remote Sens., vol. 9, no. 2, 2017, doi: 10.3390/rs9020100.
R. Magdalena, S. Saidah, N. Kumalasari C.P., and A. T. Putra., “Klasifikasi Tutupan Lahan Melalui Citra Satelit SPOT-6 dengan Metode Convolutional Neural,†JEPIN (Jurnal Edukasi dan Penelit. Inform., vol. 7, no. 3, pp. 335–339, 2021, [Online]. Available: https://jurnal.untan.ac.id/index.php/jepin/article/view/48195/75676591380.
Y. D. Zhang, S. C. Satapathy, S. Liu, and G. R. Li, “A Five-layer Deep Convolutional Neural Network with Stochastic Pooling for Chest CT-based COVID-19 Diagnosis,†Mach. Vis. Appl., vol. 32, no. 1, pp. 1–13, 2021, doi: 10.1007/s00138-020-01128-8.
A. Al Smadi, A. Mehmood, A. Abugabah, E. Almekhlafi, and A. M. Al-Smadi, “Deep Convolutional Neural Network-based System for Fish Classification,†Int. J. Electr. Comput. Eng., vol. 12, no. 2, pp. 2026–2039, 2022, doi: 10.11591/ijece.v12i2.pp2026-2039.
T. A. Kalaycı and U. Asan, “Improving Classification Performance of Fully Connected Layers by Fuzzy Clustering in Transformed Feature Space,†Symmetry (Basel)., vol. 14, no. 4, p. 658, 2022, doi: 10.3390/sym14040658.
R. Yamashita, M. Nishio, R. Gian Do Kinh, and K. Togashi, “Convolutional Neural Networks: an Overview and Application in Radiology,†Insights into Imaging, Eur. Soc. Radiol., vol. 9, pp. 611–629, 2018, doi: 10.1007/978-981-15-7078-0_3.
M. Grandini, E. Bagli, and G. Visani, “Metrics for Multi-Class Classification: an Overview,†pp. 1–17, 2020, [Online]. Available: http://arxiv.org/abs/2008.05756.
J. H. J. C. Ortega, “Analysis of Performance of Classification Algorithms in Mushroom Poisonous Detection using Confusion Matrix Analysis,†Int. J. Adv. Trends Comput. Sci. Eng., vol. 9, no. 1.3, pp. 451–456, 2020, doi: 10.30534/ijatcse/2020/7191.32020.
M. van Seijen et al., “Ductal Carcinoma In Situ: to Treat or Not to Treat, That is the Question,†Br. J. Cancer, vol. 121, no. 4, pp. 285–292, 2019, doi: 10.1038/s41416-019-0478-6.
H. L. Chung, H. H. Tso, L. P. Middleton, J. Sun, and J. W. T. Leung, “Axillary Nodal Metastases in Invasive Lobular Carcinoma Versus Invasive Ductal Carcinoma: Comparison of Node Detection and Morphology by Ultrasound,†Am. J. Roentgenol., vol. 218, no. 1, pp. 33–41, 2022, doi: 10.2214/AJR.21.26135.
D. Makower, J. Qin, J. Lin, X. Xue, and J. A. Sparano, “The 21-Gene Recurrence Score in Early Non-Ductal Breast Cancer: a National Cancer Database analysis,†npj Breast Cancer, vol. 8, no. 1, pp. 1–7, 2022, doi: 10.1038/s41523-021-00368-9.
Downloads
Published
Issue
Section
License
Pernyataan Hak Cipta dan Lisensi
Hak Cipta :
Penulis yang mempublikasikan naskahnya pada Jurnal ini menyetujui ketentuan berikut:
Hak cipta pada setiap artikel adalah milik penulis.
- Penulis mengakui bahwa JOINTECS (JOURNAL OF INFORMATION TECHNOLOGY AND COMPUTER SCIENCE) berhak sebagai yang mempublikasikan pertama kali dengan lisensi Creative Common Attribution-ShareAlike 4.0 International (CC BY-SA 4.0).
- Penulis dapat memasukan tulisan secara terpisah, mengatur distribusi non-ekskulif  dari naskah yang telah terbit di jurnal ini kedalam versi yang lain (misal: dikirim ke respository institusi penulis, publikasi kedalam buku, dll), dengan mengakui bahwa naskah telah terbit pertama kali pada JOINTECS (JOURNAL OF INFORMATION TECHNOLOGY AND COMPUTER SCIENCE);
Lisensi :
JOINTECS diterbitkan berdasarkan ketentuan Creative Common Attribution-ShareAlike 4.0 International (CC BY-SA 4.0). Lisensi ini mengizinkan setiap orang untuk menyalin dan menyebarluaskan kembali materi ini dalam bentuk atau format apapun, menggubah, mengubah, dan membuat turunan dari materi ini untuk kepentingan apapun, termasuk kepentingan komersial, selama mereka mencantumkan kredit kepada Penulis atas ciptaan asli.
This work is Under licensed
Creative Common Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)