نموذج التعلم العميق الهجين لسرطان الثدي تصنيف الصور الشعاعية للثدي يعتمد على التعلم بالنقل ووحدة الاهتمام.

A hybrid deep learning model for breast cancer Mammographic Image Classification based on transfer learning and an attention module.

توفيق عزت موسى

توفيق عزت موسى

Tawfikezat@yahoo.com

ليبيا

محمد س. جودا

محمد س. جودا

Mhomadgg@gmail.com

ليبيا

الكلمات المفتاحية
الكلمات المفتاحية: سرطان الثدي، VGG16، MIAS، التصوير الشعاعي للثدي، التصنيف. Keywords: Breast cancer, VGG16, MIAS, Mammography, Classification.

يُعد سرطان الثدي أحد الأسباب الرئيسية للوفاة بين النساء. يتيح الكشف المبكر عن سرطان الثدي تلقي العلاج المناسب، مما يزيد من فرص النجاة. في هذه الورقة البحثية، اقترحنا نموذجًا هجينًا للتعلم العميق باستخدام نموذج VGG16 مُدرَّب مسبقًا مع آلية تنبيه ذاتي للكشف عن سرطان الثدي. استخرجنا خصائص من مجموعة بيانات الفئة الثنائية (حميدة، خبيثة) لجمعية تحليل صور الثدي (MIAS) باستخدام بنى شبكات عصبية التفافية عميقة مُدرَّبة مسبقًا مثل Xception وMobileNet وDenseNet وVGG-16. أظهرت النتائج أن أفضل نموذج هو VGG16 مع وحدة تنبيه ذاتي، والذي حقق دقة بلغت 98.77%.

Breast cancer is one of the primary causes of death among women. Early detection of breast cancer allows for the receipt of appropriate treatment, thus increasing the possibility of survival. In this paper, we proposed a hybrid deep learning model using a pre-trained VGG16 model with a self-attention mechanism for breast cancer detection. We extract features from the binary class (benign, malignant) dataset of the mammographic image analysis society (MIAS) using pre-trained deep convolutional neural network (CNN) architectures like Xception, MobileNet, DenseNet, and VGG-16. So the results illustrated that the best model is VGG16 with a self-attention module, which achieved an accuracy of  98.77%.