ВОПРОСЫ ПОСТРОЕНИЯ НЕЙРОСЕТЕВОГО КЛАСТЕРИЗАТОРА ДЛЯ АВТОМАТИЧЕСКОГО РАСПОЗНАВАНИЯ ПОЧТОВОГО ИНДЕКСА

  • А.О. Пьявченко Южный Федеральный Университет
  • А.В. Ильченко Южный Федеральный Университет
Ключевые слова: Кодовый штамп, почтовый индекс корреспонденции, предварительная обработка, сверточные нейронные сети, обучение с учителем, нейросетевой кластеризатор, моделирование, пакет MATLAB

Аннотация

Рассматриваются актуальные вопросы разработки нейросетевого кластеризатора, предназначенного для распознавания рукописного кода почтового индекса корреспонденции, задаваемого с использованием упрощенного кодового штампа. В качестве нейросетевого базиса кластеризатора использована структурированная сверточная нейронная сеть, обеспечивающая формирование и кластеризацию набора классифицирующих признаков, характеризующих символы кода индекса. Разработана программная модель нейросетевого кластеризатора, обеспечивающая посимвольное распознавание сканированного и соответ-ствующим образом предварительно обработанного изображения почтового индекса. При разработке кластеризатора использовался пакет Deep Learning ToolBox программной среды MatLab версии 18b. Для обучения нейросетевого кластеризатора применялся цифро-вой набор образцов рукописных арабских цифр MNIST. В статье представлены результа-ты выполненных экспериментов, из которых следует, что обученная программная модель нейросетевого кластеризатора обеспечивает ошибку распознавания произвольной руко-писной цифры из состава проверочной выборки на уровне 0,72 %. Преимуществами предла-гаемого подхода являются: отказ от применяемого в настоящее время кодового штампа начертания индекса путем замены его штампом упрощенного представления и формально неограниченной длины; возможность использования в составе индекса рукописных сим-вольных обозначений, принятых национальными почтовыми системами при условии соот-ветствующего предварительного обучения нейросетевого кластеризатора; возможность применения предлагаемого подхода на различных этапах обработки корреспонденции, на-чиная от ее приема у граждан и заканчивая автоматами сортировки в составе крупных сортировочных центров.

Литература

1. Convolutional Neural Networks for Visual Recognition. – Backpropagation, Intuitions // Курс лекций CS231n стэндфордского университета (дата обновления: 2019). – URL: http://cs231n.github.io/ optimization-2/ (дата обращения: 17.07.2019).
2. Convolutional Neural Networks for Visual Recognition. – Neural Networks Part 1: Setting up the Architecture // Курс лекций CS231n стэндфордского университета (дата обновления: 2019). – URL: http://cs231n.github.io/neural-networks-1/ (дата обращения: 17.07.2019).
3. Convolutional Neural Networks for Visual Recognition. – Neural Networks Part 2: Setting up the Data and the Loss // Курс лекций CS231n стэндфордского университета (дата обнов-ления: 2019. – URL: http://cs231n.github.io/neural-networks-2/ (дата обращения: 17.07.2019).
4. Convolutional Neural Networks for Visual Recognition. – Neural Networks Part 3: Learning and Evaluation // Курс лекций CS231n стэндфордского университета (дата обновления: 2019). – URL: http://cs231n.github.io/neural-networks-3/ (дата обращения: 17.07.2019).
5. Convolutional Neural Networks for Visual Recognition. – Optimization: Stochastic Gradient Descent // Курс лекций CS231n стэндфордского университета (дата обновления: 2019). – URL: http://cs231n.github.io/optimization-1/ (дата обращения: 17.07.2019).
6. Deep Learning Toolbox // Официальный сайт компании Mathworks (дата обновления: 2019). – URL: https://www.mathworks.com/products/deep-learning.html (дата обращения: 20.07.2019).
7. Deng Li and Dong Yu. Deep Learning: Methods and Applications // Foundations and Trends in Signal Processing. – 2013. – Vol. 7, No. 3–4. – P. 197-387.
8. Gonzalez R.C., Woods R.E. Digital Image Processing. – 3rd ed. – Prentice-Hall, 2008. – 976 p.
9. Ioffe, Sergey, and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift // arXiv preprint. – 2015. – arXiv:1502.03167.
10. Schmidhuber J. Deep Learning in Neural Networks: An Overview // Neural Networks. – Janu-ary 2015. – Vol. 61. – P. 85-117.
11. Kingma D., Ba J. Adam: A method for stochastic optimization // International Conference on Multimedia. – 2014. – P. 675-678.
12. Mansi Shah, Gordhan B Jethava. A literature review on hand written character recognition // Indian Streams Research Journal. – March 2013. – Vol. 3, Issue 2.
13. MNIST handwritten digit database // Официальный сайт. – URL: http://yann.lecun.com/ exdb/mnist/ (дата обращения: 17.07.2019).
14. Universal Postal Union. – Universal POST*CODE® DataBase // Официальный сайт почто-вого союза (дата обновления: 05.2019). – URL: http://www.upu.int/en/resources/postcodes/ universal-postcoder-database.html (дата обращения: 05.07.2019).
15. Y. LeCun et al. Backpropagation Applied to Handwritten Zip Code Recognition // Neural Computation. – Dec. 1989. – No. 1 (4). – P. 541-551.
16. Закон Парето / Авторы Википедии // Википедия (дата обновления: 06.06.2019). – URL: https://ru.wikipedia.org/wiki/Закон_Парето (дата обращения: 05.07.2019).
17. Акулич И. Идеальный почтовый индекс // Популярный журнал «Квантик». – 2015. – № 1. – С. 10-14.
18. Почтовый индекс / Авторы Википедии // Википедия (дата обновления: 24.06.2019). – URL: https://ru.wikipedia.org/wiki/ Почтовый_индекс (дата обращения: 05.07.2019).
19. Соловьев Р.А., Кустов А.Г., Рухлов В.С., Щелоков А.Н., Пузырьков Д.В. Аппаратная реа-лизация свёрточной нейронной сети в ПЛИС на базе вычислений с фиксированной точ-кой // Известия ЮФУ. Технические науки. – 2017. – № 7 (192). – С. 186-187.
20. Гудфеллоу Я., Бенджио И., Курвилль А. Глубокое обучение: пер. с англ. А.А. Слинкина. – 2-е изд., испр. – М.: ДМК Пресс, 2018. – 652 с.
21. Доронченко Ю.И., Коваленко А.Г. Методика реализации на реконфигурируемых вычис-лительных системах крупных узлов вычислительных задач в виде библиотечных VHDL-элементов // Известия ЮФУ. Технические науки. – 2016. – № 11 (184). – С. 4-13.
Опубликован
2019-09-23
Выпуск
Раздел
РАЗДЕЛ I. АЛГОРИТМЫ ОБРАБОТКИ ИНФОРМАЦИИ