НЕЙРОСЕТЕВЫЕ АЛГОРИТМЫ В ЗАДАЧАХ АВТОМАТИЧЕСКОГО РАСПОЗНАВАНИЯ И СОПРОВОЖДЕНИЯ ОБЪЕКТОВ ДЛЯ ВСТРАИВАЕМЫХ ВЫЧИСЛИТЕЛЕЙ ОПТИКО-ЭЛЕКТРОННЫХ СИСТЕМ

  • В.А. Тупиков АО «Научно-производственное предприятие «Авиационная и морская электроника»
  • В.А. Павлова АО «Научно-производственное предприятие «Авиационная и морская электроника»
  • В.А. Бондаренко АО «Научно-производственное предприятие «Авиационная и морская электроника»
  • Г.Э. Каплинский АО «Научно-производственное предприятие «Авиационная и морская электроника»
  • Н.Г. Холод АО «Научно-производственное предприятие «Авиационная и морская электроника»
Ключевые слова: Обработка изображений, распознавание образов, глубокая нейронная сеть, оптико-электронная система

Аннотация

Целью данной работы является повышение эффективности систем автоматическо-го сопровождения и распознавания локальных детерминированных объектов в сложных условиях наблюдения. В задачах автоматического распознавания объектов зачастую не-возможно предсказать ракурс наблюдения объекта и, соответственно, невозможно зара-нее подготовить эталоны для текущего ракурса. В подобных условиях наилучшим образом показали себя алгоритмы обработки изображений, основанные на применении глубоких искусственных нейронных сетей (ИНС) сверточного типа. Новизна данной работы со-стоит в разработке оригинального алгоритма распознавания объектов с применением ИНС. Разработанный алгоритм относится к группе алгоритмов машинного обучения с учителем. Особенностью алгоритмов данной группы является их хорошая масштабируе-мость на другие образцы изображений объекта распознавания, отсутствовавшие в обу-чающей выборке. Типовой процесс разработки ИНС можно разделить на три основных этапа: исследование задачи и выбор архитектуры, обучение и применение ИНС. На первом этапе осуществляется анализ предметной области, особенностей изображений типовых объектов применения, определяется количество основных групп (классов) к которым необ-ходимо относить распознаваемые объекты, выполняется подготовка обучающей выборки (набора эталонных изображений типовых объектов каждого класса) определенного раз-мера и выбор подходящей архитектуры ИНС. Результатом выполнения первого этапа разработки ИНС является набор данных для выполнения процесса обучения. На следующем этапе осуществляется итерационный процесс обучения ИНС с возможной корректиров-кой её архитектуры в зависимости от анализа оценочных метрик, определяемых в процес-се обучения. Обучение выполнятся в лабораторных условиях на вычислителях, обладающих вычислительной мощностью. На этапе применения ИНС выполняется процесс распозна-вания обученной ИНС, также называемый прямым проходом. Данный этап выполняется на встраиваемом вычислителе. Ключевым отличием разработанной ИНС от широкого семейства известных аналогичных алгоритмов является его изначальная ориентирован-ность на применение в составе встраиваемых вычислительных комплексов, имеющих серь-езные ограничения на массу, габариты, энергопотребление и другие характеристики. Это достигается путем применения целочисленной бинарной арифметики, что позволяет осу-ществить ее эффективную реализацию с использованием программируемых логических интегральных схем (ПЛИС). Оценка эффективности разработанной ИНС осуществлялась с применением комплексной математической модели программно-аппаратных комплексов оптико-электронных систем (ОЭС). После чего были проведены испытания в составе спе-циального программного обеспечения ОЭС беспилотного летательного аппарата, показавшие высокую эффективность разработанной ИНС.

Литература

1. Ullrich K., Meeds E., Welling M. Soft weight-sharing for neural network compression.
2. Han S., Mao H., Dally W.J. Deep compression: Compressing deep neural networks with prun-ing, trained quantization and huffman coding.
3. Courbariaux M., Bengio Y., David J.P. Binaryconnect: Training deep neural networks with binaryweights during propagations // Advances in neural information processing systems. – 2015. – P. 3123-3131.
4. Ioffe S., Szegedy C. Batch normalization: Accelerating deep network training by reducing in-ternal covariate shift // arXiv preprint arXiv:1502.03167. 2015.
5. Courbariaux M. et al. Binarized neural networks: Training deep neural networks with weights and activations constrained to+ 1 or-1 // arXiv preprint arXiv:1602.02830. 2016.
6. Hinton Geoffrey. Neural networks for machine learning. Coursera. Video lectures. – 2012.
7. Rastegari M. et al. Xnor-net: Imagenet classification using binary convolutional neural net-works // European Conference on Computer Vision. – Springer, Cham, 2016. – P. 525-542.
8. Jia Y. et al. Caffe: convolutional architecture for fast feature embedding // Proceedings of the 22nd ACM International Conference on Multimedia. – 2014. – P. 675-678.
9. Kingma D., Ba J. Adam. A method for stochastic optimization // International Conference on Multimedia. – 2014. – P. 675-678.
10. Тупиков В.А., Павлова В.А., Бондаренко В.А., Александров В.А. Способ автоматического обнаружения объектов на морской поверхности в видимом диапазоне // Известия Тул-ГУ. Технические науки. – 2016. – № 11-3. – С. 105-121.
11. Gonzalez R.C., Woods R.E. Digital Image Processing. – 2nd ed. – Prentice-Hall, 2002. – 793 p.
12. Sauvola J., Pietikainen M. Adaptive document image binarization // Pattern Recognition. – 2000. – No. 33. – P. 225-236.
13. Shafait F., Keysers D., Breuel T.M. Efficient implementation of local adaptive thresholding techniques using integral images // Proc. SPIE vol. 6815, Document Recognition and Retrieval XV, 2008.
14. Viola P., Jones M.J. Robust real-time face detection // Int. Journal of Computer Vision. – 2004. – Vol. 57 (2). – P. 137-154.
15. Crow F. Summed-area tables for texture mapping // In Proceedings of SIGGRAPH. – 1984. – Vol. 18 (3). – P. 207-212.
16. Баклицкий В.К. Корреляционно-экстремальные методы навигации и наведения. – Тверь: ТО «Книжный клуб», 2009. – 360 с.
17. LeCun Y., Boser B., Denker J.S., Henderson D., Howard R.E., Hubbard W. and Jackel L.D. Backpropagation Applied to Handwritten Zip Code Recognition // Neural Computation. – 1989. – No. 1 (4). – P. 541-551.
18. Goodfellow I., Bengio Y., Courville A. Deep Learning. – MIT Press, 2016. – 781 p.
19. Deng L. and Deep D.Yu. Learning: Methods and Applications // Foundations and Trends in Signal Processing. – 2013. – Vol. 7, No. 3–4. –P. 197-387.
20. Ioffe, Sergey, and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift // arXiv preprint. – 2015. arXiv:1502.03167.
Опубликован
2019-05-08
Выпуск
Раздел
РАЗДЕЛ V. ТЕХНИЧЕСКОЕ ЗРЕНИЕ