Найти
Результаты поиска
-
ОПТИМИЗАЦИЯ ПИД-ПАРАМЕТРОВ СЕРВОСИСТЕМ С ИСПОЛЬЗОВАНИЕМ ГЕНЕТИЧЕСКОГО АЛГОРИТМА И НЕЙРОСЕТЕВОГО КЛАССИФИКАТОРА
Ахмад Зулфикар , Ю.А. Кравченко , А.М. Мансур237-2502025-10-01Аннотация ▼Алгоритмы машинного обучения играют жизненно важную роль в повышении производительности промышленных систем, обеспечивая высокую точность и операционную эффективность в режиме реального времени. В системах управления серводвигателями эти алгоритмы способствуют снижению шума и вибраций, что повышает эффективность работы и продлевает срок службы оборудования. В данной статье рассматриваются различные типы возникающих шумов и их негативное воздействие на промышленные процессы. Основной целью исследования является оптимизация параметров ПИД-регулятора (PID) в сервосистемах с использованием комбинированного алгоритма, сочетающего нейронные сети и генетические алгоритмы. В отличие от традиционных методов, таких как генетические алгоритмы (GA) и метод роя частиц (PSO), которые отличаются медленной сходимостью и риском повреждения двигателей, предложенное решение основано на программной платформе управления. Эта платформа обеспечивает безопасное взаимодействие с серводвигателем в режиме реального времени. Разработана система управления на основе CAN Bus, которая позволяет разработчикам: считывать все параметры серводвигателя (скорость, ток, напряжение, положение энкодера); изменять коэффициенты ПИД-регулятора одним нажатием, исключая необходимость ручной настройки, как в MOTO-MASTER. Применение разработанной системы управления позволило использовать обученный нейронный классификатор для ограничения параметров PID в безопасных пределах, что сокращает пространство поиска и ускоряет процесс оптимизации. Экспериментальные результаты на серводвигателях SPH-S показали значительное снижение шума и механических вибраций при работе в реальном времени, с сохранением стабильности в широком диапазоне скоростей (0–1500 об/мин).
-
МОДИФИЦИРОВАННЫЙ МЕТОД УСТРАНЕНИЯ НЕОДНОЗНАЧНОСТИ СМЫСЛА СЛОВ, ОСНОВАННЫЙ НА МЕТОДАХ РАСПРЕДЕЛЕННОГО ПРЕДСТАВЛЕНИЯ
Ю.А. Кравченко , Мансур Али Махмуд, Мохаммад Жуман Хуссайн2021-08-11Аннотация ▼В задачах интеллектуального анализа текста текстовое представление должно
быть не только эффективным, но и интерпретируемым, поскольку это позволяет понять
операционную логику, лежащую в основе моделей интеллектуального анализа данных. В
этой статье предлагается модифицированный метод устранения неоднозначности слов
(WSD), который, по сути, имитирует хорошо известный вариант подхода Леска WSD. Для
выбранного слова и его контекста алгоритм Леска проводит свои вычисления на основе
проверки совпадений контекста слова и каждого определения его смыслов (глосс), для того
чтобы выбрать правильное значение. Основным преимуществом данного метода является
применение концепции сходства между определением и контекстом вместо «перекры-
тия», для каждого смысла целевого слова в дополнение к расширению определения приме-
рами предоставленными WordNet. Предлагаемый метод также характеризуется исполь-
зованием функций измерения схожести текстов, определенных в распределенном семан-
тическом пространстве. Предлагаемый метод протестирован на пяти различных наборах
эталонных данных для задачи устранения неоднозначности смысла слов и сравнивался с
несколькими базовыми методами, включая Lesk, расширенный Lesk, WordNet 1st sense,
Babelfy и UKB. Результаты показывают, что предлагаемый метод превосходит большин-
ство известных аналогов, за исключением методов Babelfy и WN 1st sense. -
РАЗРАБОТКА ЧАТ-БОТА ДЛЯ КЛАССИФИКАЦИИ И АНАЛИЗА ТЕКСТОВ НА ЕСТЕСТВЕННОМ ЯЗЫКЕ С ИСПОЛЬЗОВАНИЕМ ЛОКАЛЬНЫХ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ
Али Махмуд Мансур , Жуман Хуссайн Мохаммад , Ю.А. Кравченко159-1712025-07-24Аннотация ▼Исследуются локальные большие языковые модели (Local large language models, Local LLM) и их применение в задачах классификации текста, а также проводится сравнение их производительности с традиционными методами. Статья предоставляет всесторонний обзор ряда ключевых локальных LLM, уделяя особое внимание их архитектурным преимуществам, характеристикам и областям применения. В частности, рассматриваются модели с различным количеством параметров, их способность адаптироваться к специализированным доменам, а также требования к вычислительным ресурсам при их развертывании на локальном оборудовании. Особый акцент делается на компромиссах между производительностью и эффективностью использования ресурсов. В качестве практического вклада разработан чат-бот, использующий локальные LLM (такие как DeepSeek, Gemma и Llama2 через Ollama) для классификации входящих текстов по заранее заданным категориям, демонстрируя работу этих моделей без использования облачных вычислений. Система реализована с модульной архитектурой, позволяющей легко интегрировать новые модели и сравнивать их эффективность. Вычислительный эксперимент включает оценку точности и скорости вывода локальных LLM в сравнении с более простыми методами, такими как Sentence-BERT, TF-IDF и BoWC, выделяя сценарии, в которых локальные модели превосходят традиционные подходы или уступают им. Тестирование проводилось на основе эталонного набора данных BBC. Результаты показывают, что языковые модели (включая модели с 7 миллиардами параметров) демонстрируют сильную и логически обоснованную классификационную производительность при обработке текстов на естественном языке, однако их результаты не являются идеальными для эталонных наборов данных. В частности, обнаружены случаи, когда все тестируемые модели, включая традиционные методы, ошибочно классифицировали документы, что указывает на возможные проблемы в разметке данных. Полученные результаты указывают на необходимость пересмотра эталонных меток в стандартных наборах данных. Это особенно важно для доменов с субъективными категориями, где экспертные оценки могут значительно расходиться. С другой стороны, хотя локальные LLM уступают облачным в скорости, их преимущества в конфиденциальности данных и оффлайн-работе делают их пригодными для специализированных задач.
-
АЛГОРИТМ НА ОСНОВЕ ТРАНСФОРМЕРОВ ДЛЯ КЛАССИФИКАЦИИ ДЛИННЫХ ТЕКСТОВ
Али Махмуд Мансур2024-08-12Аннотация ▼Статья посвящена актуальной проблеме представления и классификации длинных тексто-
вых документов с использованием трансформеров. Методы представления текста, основанные
на трансформерах, не могут эффективно обрабатывать длинные последовательности из-за их
процесса самовнимания, который масштабируется квадратично с длиной последовательности.
Это ограничение приводит к высокой вычислительной сложности и невозможности применения
таких моделей для обработки длинных документов. Для устранения этого недостатка, в статье
разработан алгоритм на основе трансформера SBERT, который позволяет построить векторное
представление длинных текстовых документов. Ключевая идея алгоритма заключается в приме-
нении двух различных процедур к созданию векторного представления: первая основана на сегмен-
тации текста и усреднении векторов сегментов, а вторая – на конкатенации векторов сегмен-
тов. Такая комбинация процедур позволяет сохранить важную информацию из длинных докумен-
тов. Для проверки эффективности алгоритма был проведен вычислительный эксперимент на
группе классификаторов, построенных на основе предложенного алгоритма, и группе известных
методов векторизации текста, таких как TF-IDF, LSA и BoWC. Результаты вычислительного
эксперимента показали, что классификаторы на основе трансформеров в целом достигают луч-
ших результатов по точности классификации по сравнению с классическими методами. Однако,
это преимущество достигается за счет более высокой вычислительной сложности и, соответ-
ственно, более длительного времени обучения и применения таких моделей. С другой стороны,
классические методы векторизации текста, такие как TF-IDF, LSA и BoWC, продемонстрировали
более высокую скорость работы, что делает их более предпочтительными в случаях, когда пред-
варительное кодирование не допускается и требуется работа в режиме реального времени. Пред-
ложенный алгоритм обработки и представления длинных документов доказал свою высокую эф-
фективность и привел к увеличению точности классификации набора данных BBC на 0,5% по
критерию F1. -
ВЕКТОРИЗАЦИЯ ТЕКСТА С ИСПОЛЬЗОВАНИЕМ МЕТОДОВ ИНТЕЛЛЕКТУАЛЬНОГО АНАЛИЗА ДАННЫХ
Али Махмуд Мансур , Жуман Хуссайн Мохаммад , Ю. А. Кравченко2021-07-18Аннотация ▼В задачах интеллектуального анализа текста текстовое представление должно
быть не только эффективным, но и интерпретируемым, поскольку это позволяет понять
операционную логику, лежащую в основе моделей интеллектуального анализа данных. Тра-
диционные методы векторизации текста, такие как TF-IDF и Bag-of-words, эффективны
и имеют интуитивно понятную интерпретируемость, но страдают от «проклятия раз-
мерности» и не могут понимать смысл слов. С другой стороны, современные распределен-
ные методы эффективно определяют скрытую семантику, но требуют больших вычисли-
тельных ресурсов и времени, а также им не хватает интерпретируемости. В этой ста-
тье предлагается новый метод векторизации текстов под названием Bag of weighted Concepts
BoWC, который представляет документ в соответствии с содержащейся в нем ин-
формацией о концептах. Предлагаемый метод создает концепты посредством кластери-
зации векторов слов (т.е. встраивания слов), и использует частоты этих кластеров концептов для представления векторов документов. Чтобы обогатить итоговое представле-
ние документа, предлагается модифицированная весовая функция для взвешивания кон-
цептов на основе статистики, извлеченной из информации вложений слов. Векторы, сге-
нерированные с помощью предложенного метода, характеризуются интерпретируемо-
стью, низкой размерностью, высокой точностью, а также низкими вычислительными
затратами при использовании в задачах классификации и кластеризации. Предлагаемый
метод протестирован на пяти различных наборах эталонных данных для кластеризации и
классификации текстовых документов и сравнивается с несколькими базовыми методами,
включая Bag-of-words, TF-IDF, Averaged GloVe, Bag-of-Concepts и VLAC. Результаты пока-
зывают, что BoWC превосходит большинство базовых методов и дает в среднем на 7 %
лучшую точность.








