АЛГОРИТМ РАСПОЗНАВАНИЯ ЯЗЫКА ЖЕСТОВ С ИСПОЛЬЗОВАНИЕМ СВЕРТОЧНОЙ НЕЙРОННОЙ СЕТИ
DOI:
https://doi.org/10.18522/2311-3103-2026-1-%25pКлючевые слова:
Язык жестов, сверточная нейронная сеть, машинное обучениеАннотация
Рассматривается задача автоматического распознавания русского жестового языка (РЖЯ) на основе методов компьютерного зрения и глубокого обучения. Актуальность исследования обусловлена устойчивым ростом численности лиц с нарушениями слуха: по данным Всемирной организации здравоохранения, в настоящее время их количество составляет около 70 млн человек, и, согласно прогнозам, может увеличиться до 630 млн к 2035 году. Разработка эффективных алгоритмов распознавания жестов является важным направлением создания систем бесконтактного человеко-машинного взаимодействия, направленных на повышение доступности информационных технологий и улучшение качества жизни людей с ограниченными возможностями слуха. Целью работы является разработка и экспериментальная апробация алгоритма распознавания букв русского жестового языка в видеопотоке в реальном времени с использованием сверточной нейронной сети. В ходе исследования сформирован специализированный датасет, включающий 430 изображений жестов, соответствующих буквам алфавита РЖЯ, представленных с различных ракурсов и при изменяющихся условиях освещения. Для реализации модели использованы библиотеки TensorFlow и Keras, а интеграция с видеопотоком выполнена с применением средств OpenCV и системы отслеживания положения руки на основе маркеров. В результате проведенного обучения и тестирования предложенная модель продемонстрировала точность распознавания на уровне 99 % на тестовой выборке. Проведён сравнительный анализ с классическими методами машинного обучения, показавший преимущество сверточной нейронной сети по точности классификации и устойчивости к внешним помехам. Полученные результаты подтверждают эффективность предложенного подхода и его применимость для создания систем реального времени, предназначенных для коммуникационных, образовательных и реабилитационных приложений, а также для разработки интерфейсов человеко-машинного взаимодействия
Библиографические ссылки
1. World Health Organization. Deafness and hearing loss, 2023. Available at: https://www.who.int/news-room/fact-sheets/detail/deafness-and-hearing-loss (accessed 10 January 2026).
2. Dialekty russkogo zhestovogo yazyka [Dialects of russian sign language]. Available at: https://voginfo.ru/vog/2015/05/30/rslidioms/ (accessed 10 February 2024).
3. Cruz M., et al. Sign language recognition: A review, International Journal of Computer Vision, 2020.
4. Kim H., et al. Marker-based hand gesture recognition systems: A review, Sensors, 2022.
5. Foteinos K., et al. Visual Hand Gesture Recognition with Deep Learning: A Comprehensive Review of Methods, Datasets, Challenges and Future Research Directions, arXiv preprint arXiv:2507.04465, 2025.
6. Zhou Y., et al. CNN-LSTM architecture for sign language recognition, IEEE Access, 2021.
7. Wang L., et al. Spatio-temporal networks for dynamic hand gesture recognition, Neurocomputing, 2024.
8. Garcia F., et al. Robust CNN models with data augmentation for hand gesture recognition, Pattern Recognition, 2025.
9. Baihan A., Alutaibi A.I., Alshehri M., et al. Sign language recognition using modified deep learning net-work and hybrid optimization: a hybrid optimizer (HO) based optimized CNNSa-LSTM approach, Sci Rep., 2024, Vol. 14, Article 26111. DOI: 10.1038/s41598-024-76174-7.
10. Kumar S., et al. Vision-based markerless hand gesture recognition using deep learning, IEEE Transac-tions on Multimedia, 2022.
11. Safa Ameur, Mohamed Ali Mahjoub, Anouar Ben Khalifa. Spatial-temporal generative network based on deep long short-term memory autoencoder for hand skeleton data sequences reconstruction and recogni-tion, Engineering Applications of Artificial Intelligence, 2025, Vol. 161, Part C, Article 112289.
12. Al Mudawi N., Ansar H., Alazeb A., Aljuaid H., AlQahtani Y., Algarni A., Jalal A., Liu H. Innovative healthcare solutions: robust hand gesture recognition of daily life routines using 1D CNN, Front. Bio-eng. Biotechnol, 2024, Vol. 12, Article 1401803. DOI: 10.3389/fbioe.2024.1401803.
13. Patel R., et al. Efficient CNN models for embedded hand gesture recognition, Journal of Real-Time Image Processing, 2023.
14. Buynachev S.K., Boklag N.Yu. Osnovy programmirovaniya na yazyke Python [Fundamentals of pro-gramming in Python]. Ekaterinburg: Izd-vo Ural. un-ta, 2014, 91 p.
15. Zheron O. Prikladnoe mashinnoe obuchenie s pomoshch'yu Scikit-Learn i TensorFlow [Applied ma-chine learning with Scikit-Learn and TensorFlow]. Moscow: Dialektika, 2018, 688 p.
16. Makkini U. Python i analiz dannykh [Python and data analysis]: transl. from Engl. by A.A. Slinkina. Moscow: DMK Press, 2020, 540 p.
17. Set V. Glubokoe obuchenie: legkaya razrabotka proektov na Python [Deep learning: easy Python project development]. Saint Petersburg: Piter, 2021, 352 p.
18. Collette A. H5Py Documentation. Release Sep 06, 2019, 75 p.
19. Uchebnik «Mashinnoe zrenie» [.Textbook "Machine Vision"]. Vol. 2. Available at: https://copter-space.gitbook.io/uchebnik-mashinnoe-zrenie-tom-2 (accessed 10 April 2025).
20. Esan A., Okomba N., Adebiyi T., et al. Comparing CNN and Logistic Regression Results for Automated Detection Tasks. Available at: https://www.researchgate.net/publication/382880766 (accessed 10 No-vember 2025).








