СОПОСТАВЛЕНИЕ ИЗОБРАЖЕНИЙ ПО ОСОБЫМ ТОЧКАМ РАЗЛИЧНЫХ КАТЕГОРИЙ

  • К.И. Морев Южный Федеральный Университет
  • А.В. Боженюк Южный Федеральный Университет
Ключевые слова: Особые точки изображения, сопоставление особых точек, дескрипторы особых то- чек, классификация особых точек изображений

Аннотация

Работа посвящена экспериментам с различными методами выделения особых точек
на изображениях с последующим их описанием бинарным дескриптором и сопоставлением
методом полного перебора. В работе активно используется метод описания окрестно-
стей особых точек, основанный на построении бинарной строки, характеризующей изме-
нения яркостей пикселей в описываемой окрестности. Результирующая строка получается
путем сравнения яркостей пикселей по определенному шаблону. Сегодня использование
особых точек при работе с изображениями позволяет разрабатывать прикладные мето-
ды в различных сферах компьютерного зрения с повышенными требованиями ко времени
работы и устойчивости к резким изменениям сцен. В работе приведены результаты экс-
периментов с особыми точками различных классов, классификация приводится в разделе 1.
При проведении экспериментов использовались методы, реализованные в библиотеке
OpenCV. В работе даны краткие описания используемых в экспериментах методов. В раз-
деле 1 работы предлагается классификация современных типов особых точек изображе-
ний и дается краткое описание популярных методов детектирования описываемых типов
особых точек. В разделе 2 авторы дают общее описание методов работы с особыми точ-
ками изображений. В разделе 3 приводится описание проводимых экспериментов с сопос-
тавлением особых точек различных типов, описанных одним дескриптором, и раскрыва-
ются их результаты. Проведенные эксперименты позволяют выявить сильные и слабые
стороны связок различных типов особых точек при их сопоставлении.

Литература

1. Tassov K.L., Bekasov D.E. Obrabotka perekrytiy v zadachakh otslezhivaniya ob"ektov v
videopotoke [Overlapping solving in tracking tasks]. Inzhenernyy zhurnal: nauka i innovatsii
[Engineer magazine: science and innovations], 2013, No. 6 (18), pp. 1-18.
2. Harris C., Stephens M. A combined corner and edge detector, Proceedings of the 4th Alvey
Vision Conference, 1988, pp. 147-151.
3. Lowe D.G. Distinctive image features from scale-invariant keypoints, International Journal of
Computer Vision 60, 2004, pp. 91-110.
4. Matas J., Chum O., Urban M., and Pajdla T. Robust wide baseline stereo from maximally stable
extremal regions, Proceedings of the British Machine Vision Conference, 2002, pp. 384-396.
5. Kaehler A., Bradski G. Learning OpenCV 3: Computer Vision in C++ with the OpenCV
Library, O'Reilly Media, 2017, 1024 p.
6. Rublee E., Rabaud V., Konolige K., Bradski G. ORB: an efficient alternative to SIFT or SURF,
IEEE International Conference, 2011, pp. 2564-2571.
7. Riba E., Mishkin D., Ponsa D, Rublee E., Bradski G. Kornia: An open source differentiable
computer vision library for PyTorch, IEEE Winter Conference on Applications of Computer
Vision, WACV 2020, 2020, pp. 3663-3672.
8. Morev K.I. Metod sopostavleniya osobykh tochek izobrazheniy dlya zadach trekinga,
osnovannyy na intuitsionistskoy nechetkoy logike [The method of feature matching for tracking
tasks based on intuitionistic fuzzy sets], Izvestiya YuFU. Tekhnicheskie nauki [Izvestiya
SFedU. Engineering Sciences], 2019, No. 1 (203), pp. 282-295.
9. Leutenegger S., Chli M., Siegwart R. BRISK: Binary Robust Invariant Scalable Keypoints,
Computer Vision (ICCV), 2011, pp. 2548-2555.
10. Calonder M., Lepetit V., Strecha C., Fua P. BRIEF: Binary Robust Independent Elementary
Features, 11th European Conference on Computer Vision (ECCV), 2010, pp. 778-792.
11. David L., Object recognition from local scale-invariant features, Proceedings of the International
Conference on Computer Vision, 1999, pp. 1150-1157.
12. Salahat E., Qasaimeh M., Recent advances in feature extraction and description algorithms:
Hardware designs and algorithmic derivatives, Computer Vision: Concepts, Methodologies,
Tools, and Applications, 2018, 33 p.
13. Bay H., Tuytelaars T., Gool L. SURF: Speeded up robust features, European Conference on
Computer Vision, 2006, pp. 404-417.
14. Bian Lin, Matsushita Yeung, Nguyen Cheng. GMS: Grid-based Motion Statistics for Fast,
Ultra-Robust Feature Correspondence, CVPR, 2017, 10 p.
15. Stauffer C., Grimson W. Learning patterns of activity using real-time tracking, IEEE Transactions
on Pattern Analysis and Machine Intelligence, 2000, pp. 747-757.
16. Raja Y., Gong S. Scaling up multi-camera tracking for real-world deployment, Proceedings of
SPIE - The International Society for Optical Engineering, 2012, No. 8546.
17. Zheng W.-S., Gong S., Xiang T. Person re-identification by probabilistic relative distance comparison,
Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern
Recognition, 2011, pp. 649-656.
18. Yang M., Wu Y., Hua G. Context-aware visual tracking, IEEE transactions on pattern analysis
and machine intelligence, 2006, No. 31, pp. 1195-1209.
19. Sundaresan A., Chellappa R. Multi-camera tracking of articulated human motion using shape
and motion cues, IEEE Transactions on Image Processing, 2009, pp. 2114-2126.
20. Vrazhnov D.A., Shapovalov A.V., Nikolaev V.V. O kachestve raboty algoritmov slezheniya za
ob"ektami na video [About quality of tracking algorithms in video], Komp'yuternye
issledovaniya i modelirovanie [Computer investigation and modeling], 2012, No. 2 (4),
pp. 303-313.
Опубликован
2020-10-11
Выпуск
Раздел
РАЗДЕЛ IV. АНАЛИЗ И РАСПОЗНАВАНИЕ ОБРАЗОВ