ЖУРНАЛ РАДИОЭЛЕКТРОНИКИ. eISSN 1684-1719. 2025. №11

Оглавление выпуска

Текст статьи (pdf)

English page

 

 

DOI: https://doi.org/10.30898/1684-1719.2025.11.4

УДК: 621.396.96

 

 

Интерпретируемая акустическая классификация
малоразмерных летательных аппаратов
с использованием метода Grad-CAM

 

Е.И. Минаков1, В.Н. Гридин2, Д.Г. Андронычев1,
В.И. Солодовников2, А.А. Сычугов1, Ю.В. Французова1

 

1Тульский государственный университет,
300012, Тульская область, город Тула, пр-кт Ленина, д.92

2Центр информационных технологий в проектировании РАН,
143003, Московская область, город Одинцово, улица Маршала Бирюзова, д. 7А

 

Статья поступила в редакцию 6 октября 2025 г.

 

Аннотация. Задача своевременного обнаружения и классификации малоразмерных летательных аппаратов осложняется ограниченной точностью традиционных спектральных методов и их низкой помехоустойчивостью. Цель работы – разработать интерпретируемую модель акустической классификации, которая сочетает в себе высокую точность и прозрачность принятия решений. В работе предложена интерпретируемая модель акустической классификации на основе сверточной нейронной сети, обученной на MFCC-признаках и оптимизированной с помощью Keras Tuner. Для визуализации значимых частотно-временных областей используется метод Grad-CAM. Экспериментальная оценка показала высокое качество распознавания: точность составила 0.97 (95 % ДИ: 0.94-0.99), macro-F1 = 0.98, ROC-AUC = 0.998. Модель продемонстрировала устойчивость к шумовым искажениям до уровня −5 дБ SNR, а карты активации подтвердили, что решения основаны на физических характеристиках сигналов – фундаментальных частотах роторов и их гармониках. Разработанный подход может применяться в системах мониторинга воздушного пространства, защиты объектов и обеспечения безопасности, предоставляя оператору как точный прогноз, так и его интерпретацию.

Ключевые слова: акустическая классификация, сверточные нейронные сети, признаки MFCC, Grad-CAM, визуализация активации, глубокое обучение, спектральный анализ, обработка аудиосигнала, интерпретируемость модели.

Финансирование: Работы проводились при финансовой поддержке Гранта в форме субсидии на проведение научных исследований Комитета по науке и инноватике Тульской области №15 от 21 июня 2024 г.

Автор для переписки: Минаков Евгений Иванович, EMinakov@bk.ru

 

Литература

1. Rakshit H., Bagheri Zadeh P. A New Approach to Classify Drones Using a Deep Convolutional Neural Network //Drones. – 2024. – Т. 8. – №. 7. – С. 319. https://doi.org/10.3390/drones8070319.

2. Berg A. P., Zhang Q., Wang M. Y. 4,500 Seconds: Small Data Training Approaches for Deep UAV Audio Classification //arXiv preprint arXiv:2505.23782. – 2025. https://doi.org/10.5220/0013462400003967.

3. Berg A. P., Zhang Q., Wang M. Y. 15,500 Seconds: Lean UAV Classification Leveraging PEFT and Pre-Trained Networks //arXiv preprint arXiv:2506.11049. – 2025.

4. Yi W., Choi J. W., Lee J. W. Sound-based drone fault classification using multitask learning //arXiv preprint arXiv:2304.11708. – 2023.

5. Paszkowski W., Gola A., Świć A. Acoustic-Based Drone Detection Using Neural Networks–A Comprehensive Analysis //Advances in Science and Technology Research Journal. – 2024. – Т. 18. – №. 1. – С. 36-47. https://doi.org/10.12913/22998624/175863.

6. Seidaliyeva U. et al. Advances and challenges in drone detection and classification techniques: A state-of-the-art review //Sensors. – 2023. – Т. 24. – №. 1. – С. 125. https://doi.org/10.3390/s24010125.

7. Rahman M. H. et al. A comprehensive survey of unmanned aerial vehicles detection and classification using machine learning approach: Challenges, solutions, and future directions //Remote Sensing. – 2024. – Т. 16. – №. 5. – С. 879. https://doi.org/10.3390/rs16050879.

8. Ni J., Zhou Z. Blind source separation and unmanned aerial vehicle classification using CNN with hybrid cross-channel and spatial attention module //Scientific Reports. – 2025. – Т. 15. – №. 1. – С. 21905.

9. Zaman B., Al-Dulaimi A., Hussain M., Nguyen Q., Han S., Zhang Y. Audio Spectrogram Transformer with Convolutional Frontend for UAV Sound Classification in Low-Data Regime // Applied Sciences. – 2025. – Vol. 15, № 7. – Art. 1234.

10. Semenyuk S. Modern Technologies for Drone Detection and Classification: 2020–2025 Overview // Sensors. – 2025. – Vol. 25, № 3. – Art. 678.

11. Zeiler M. D., Fergus R. Visualizing and understanding convolutional networks //European conference on computer vision. – Cham : Springer International Publishing, 2014. – С. 818-833.https://doi.org/10.1007/978-3-319-10590-1_53

12. Zhou B. et al. Learning deep features for discriminative localization //Proceedings of the IEEE conference on computer vision and pattern recognition. – 2016. – С. 2921-2929. https://doi.org/10.1109/CVPR.2016.319

13. Selvaraju R. R. et al. Grad-cam: Visual explanations from deep networks via gradient-based localization //Proceedings of the IEEE international conference on computer vision. – 2017. – С. 618-626. https://doi.org/10.1109/ICCV.2017.74

14. Chattopadhay A. et al. Grad-cam++: Generalized gradient-based visual explanations for deep convolutional networks //2018 IEEE winter conference on applications of computer vision (WACV). – IEEE, 2018. – С. 839-847.. https://doi.org/10.1109/WACV.2018.00097.

Для цитирования:

Минаков Е.И., Гридин В.Н., Андронычев Д.Г., Солодовников В.И., Сычугов А.А., Французова Ю.В. Интерпретируемая акустическая классификация малоразмерных летательных аппаратов с использованием метода Grad-CAM. // Журнал радиоэлектроники. – 2025. – №. 11. https://doi.org/10.30898/1684-1719.2025.11.4