ДЕТЕКТИРОВАНИE ВЫБРОСОВ В МЕТОДЕ ПРЯМОЙ СТЕРЕО-ВИЗУАЛЬНОЙ ОДОМЕТРИИ НА БАЗЕ ИЕРАРХИЧЕСКОЙ КЛАСТЕРИЗАЦИИ

  • П. А. Пантелюк Южный федеральный университет
Ключевые слова: Навигация, визуальная одометрия, оптический поток, детектирование выбросов

Аннотация

Представляется подход к стерео-визуальной одометрии без явного вычисления оп-
тического потока. Визуальная одометрия – метод получения навигационной информации
путем обработки последовательности кадров с бортовых камер. Существует два подхода
к обработке видеоинформации – используя хорошо локализуемые участки изображения –
признаковые точки и используя все высококонтрастные пиксели – прямой метод. Прямой
метод работает, используя интенсивности всех высококонтрастных пикселей изображе-
ния, что позволяет снизить вычислительную сложность, затраченную на поиск, описание,
сопоставление признаковых точек и повысить точность оценки движения. Однако мето-
ды подобного класса обладают недостатком – наличие движущихся объектов в кадре су-
щественно снижают точность оценки параметров движения. Для избегания этого приме-
няются методы детектирования выбросов. Классические методы детектирования выбро-
сов во входных данных, такие как RANSAC плохо применимы, и имеют высокие вычисли-
тельны затраты из-за вычислительно сложной функции рейтингования гипотез. Целью
данной работы является описание и демонстрация подхода детектирования выбросов на
базе алгоритма иерархической кластеризации, который выделяет статистически наибо-
лее вероятное решение, минуя этап рейтингования каждой гипотезы, что значительно
снижает вычислительную сложность. Для иерархической кластеризации предлагается
мера расстояния между гипотезами с низкой чувствительностью к ошибкам оценки пара-
метров движения. Также предлагается расширение алгоритма стерео-визуальной одо-
метрии для работы в более сложных условиях видимости благодаря переходу от интен-
сивностного представления изображения к многоканальному бинарному. Перевод изобра-
жения к многоканальному бинарному представлению дает инвариантность к изменениям
яркости изображения, однако, требует модификации алгоритмов нелинейной оптимиза-
ции для работы с бинарными дескрипторами. В результате работы показано, что пред-
ложенный алгоритм детектирования выбросов способен работать в реальном масштабе
времени на мобильных устройствах, и может служить менее ресурсоёмкой заменой алго-
ритма RANSAC в задачах визуальной одометрии и выселения оптического потока. Качест-
венные метрики предложенного решения демонстрируются на датасете KITTI. Приведе-
ны зависимости качества работы алгоритма от параметров алгоритма.

Литература

1. Howard A. Real-time stereo visual odometry for autonomous ground vehicles, 2008 IEEE/RSJ
International Conference on Intelligent Robots and Systems. IEEE, 2008б зз. 3946-3952.
2. Scaramuzza D., Fraundorfer F. Visual odometry [tutorial], IEEE robotics & automation magazine,
2011, Vol. 18, No. 4, pp. 80-92.
3. Fraundorfer F., Scaramuzza D. Visual odometry: Part ii: Matching, robustness, optimization,
and applications, IEEE Robotics & Automation Magazine, 2012, Vol. 19, No. 2, pp. 78-90.
4. Maimone M., Cheng Y., Matthies L. Two years of visual odometry on the mars exploration
rovers, Journal of Field Robotics, 2007, Vol. 24, No. 3, pp. 169-186.
5. Aqel M.O.A. et al. Review of visual odometry: types, approaches, challenges, and applications,
SpringerPlus, 2016, Vol. 5, No. 1, pp. 1-26.
6. Badino H., Yamamoto A., Kanade T. Visual odometry by multi-frame feature integration, Proceedings
of the IEEE International Conference on Computer Vision Workshops, 2013, pp. 222-229.
7. Liu H. et al. Navigational drift analysis for visual odometry, Computing and Informatics, 2014,
Vol. 33, No. 3, pp. 685-706.
8. Usenko V. et al. Direct visual-inertial odometry with stereo cameras, 2016 IEEE International
Conference on Robotics and Automation (ICRA). IEEE, 2016, pp. 1885-1892.
9. Usenko V. et al. Direct visual-inertial odometry with stereo cameras, 2016 IEEE International
Conference on Robotics and Automation (ICRA). IEEE, 2016, pp. 1885-1892.
10. Derpanis K.G. Overview of the RANSAC Algorithm, Image Rochester NY, 2010, Vol. 4,
No. 1, pp. 2-3.
11. Zuliani M. RANSAC for Dummies, Vision Research Lab, University of California, Santa Barbara,
2009.
12. Nistér D. Preemptive RANSAC for live structure and motion estimation, Machine Vision and
Applications, 2005, Vol. 16, No. 5, pp. 321-329.
13. Raguram R., Frahm J. M., Pollefeys M. A comparative analysis of RANSAC techniques leading
to adaptive real-time random sample consensus, European Conference on Computer Vision.
Springer, Berlin, Heidelberg, 2008, pp. 500-513.
14. Li H. et al. An efficient image matching algorithm based on adaptive threshold and RANSAC,
IEEE Access, 2018, Vol. 6, pp. 66963-66971.
15. Haller I., Nedevschi S. GPU optimization of the SGM stereo algorithm, Proceedings of the
2010 IEEE 6th International Conference on Intelligent Computer Communication and Processing.
IEEE, 2010, pp. 197-202.
16. Piña E. Rotations with Rodrigues’ vector, European journal of physics, 2011, Vol. 32, No. 5,
pp. 1171.
17. Suhr J.K. Kanade-lucas-tomasi (klt) feature tracker, Computer Vision (EEE6503), 2009, pp. 9-18.
18. Hafner D., Demetz O., Weickert J. Why is the census transform good for robust optic flow
computation?, International Conference on Scale Space and Variational Methods in Computer
Vision. Springer, Berlin, Heidelberg, 2013, pp. 210-221.
19. Johnson S.C. Hierarchical clustering schemes, Psychometrika, 1967, Vol. 32, No. 3, pp. 241-254.
20. Geiger A. et al. Vision meets robotics: The kitti dataset, The International Journal of Robotics
Research, 2013, Vol. 32, No. 11, pp. 1231-1237.
Опубликован
2021-07-18
Выпуск
Раздел
РАЗДЕЛ II. СВЯЗЬ, НАВИГАЦИЯ И НАВЕДЕНИЕ