Найти
Результаты поиска
-
МОДИФИЦИРОВАННЫЙ МЕТОД УСТРАНЕНИЯ НЕОДНОЗНАЧНОСТИ СМЫСЛА СЛОВ, ОСНОВАННЫЙ НА МЕТОДАХ РАСПРЕДЕЛЕННОГО ПРЕДСТАВЛЕНИЯ
Ю.А. Кравченко , Мансур Али Махмуд, Мохаммад Жуман Хуссайн2021-08-11Аннотация ▼В задачах интеллектуального анализа текста текстовое представление должно
быть не только эффективным, но и интерпретируемым, поскольку это позволяет понять
операционную логику, лежащую в основе моделей интеллектуального анализа данных. В
этой статье предлагается модифицированный метод устранения неоднозначности слов
(WSD), который, по сути, имитирует хорошо известный вариант подхода Леска WSD. Для
выбранного слова и его контекста алгоритм Леска проводит свои вычисления на основе
проверки совпадений контекста слова и каждого определения его смыслов (глосс), для того
чтобы выбрать правильное значение. Основным преимуществом данного метода является
применение концепции сходства между определением и контекстом вместо «перекры-
тия», для каждого смысла целевого слова в дополнение к расширению определения приме-
рами предоставленными WordNet. Предлагаемый метод также характеризуется исполь-
зованием функций измерения схожести текстов, определенных в распределенном семан-
тическом пространстве. Предлагаемый метод протестирован на пяти различных наборах
эталонных данных для задачи устранения неоднозначности смысла слов и сравнивался с
несколькими базовыми методами, включая Lesk, расширенный Lesk, WordNet 1st sense,
Babelfy и UKB. Результаты показывают, что предлагаемый метод превосходит большин-
ство известных аналогов, за исключением методов Babelfy и WN 1st sense. -
АЛГОРИТМ НА ОСНОВЕ ТРАНСФОРМЕРОВ ДЛЯ КЛАССИФИКАЦИИ ДЛИННЫХ ТЕКСТОВ
Али Махмуд Мансур2024-08-12Аннотация ▼Статья посвящена актуальной проблеме представления и классификации длинных тексто-
вых документов с использованием трансформеров. Методы представления текста, основанные
на трансформерах, не могут эффективно обрабатывать длинные последовательности из-за их
процесса самовнимания, который масштабируется квадратично с длиной последовательности.
Это ограничение приводит к высокой вычислительной сложности и невозможности применения
таких моделей для обработки длинных документов. Для устранения этого недостатка, в статье
разработан алгоритм на основе трансформера SBERT, который позволяет построить векторное
представление длинных текстовых документов. Ключевая идея алгоритма заключается в приме-
нении двух различных процедур к созданию векторного представления: первая основана на сегмен-
тации текста и усреднении векторов сегментов, а вторая – на конкатенации векторов сегмен-
тов. Такая комбинация процедур позволяет сохранить важную информацию из длинных докумен-
тов. Для проверки эффективности алгоритма был проведен вычислительный эксперимент на
группе классификаторов, построенных на основе предложенного алгоритма, и группе известных
методов векторизации текста, таких как TF-IDF, LSA и BoWC. Результаты вычислительного
эксперимента показали, что классификаторы на основе трансформеров в целом достигают луч-
ших результатов по точности классификации по сравнению с классическими методами. Однако,
это преимущество достигается за счет более высокой вычислительной сложности и, соответ-
ственно, более длительного времени обучения и применения таких моделей. С другой стороны,
классические методы векторизации текста, такие как TF-IDF, LSA и BoWC, продемонстрировали
более высокую скорость работы, что делает их более предпочтительными в случаях, когда пред-
варительное кодирование не допускается и требуется работа в режиме реального времени. Пред-
ложенный алгоритм обработки и представления длинных документов доказал свою высокую эф-
фективность и привел к увеличению точности классификации набора данных BBC на 0,5% по
критерию F1. -
ВЕКТОРИЗАЦИЯ ТЕКСТА С ИСПОЛЬЗОВАНИЕМ МЕТОДОВ ИНТЕЛЛЕКТУАЛЬНОГО АНАЛИЗА ДАННЫХ
Али Махмуд Мансур , Жуман Хуссайн Мохаммад , Ю. А. Кравченко2021-07-18Аннотация ▼В задачах интеллектуального анализа текста текстовое представление должно
быть не только эффективным, но и интерпретируемым, поскольку это позволяет понять
операционную логику, лежащую в основе моделей интеллектуального анализа данных. Тра-
диционные методы векторизации текста, такие как TF-IDF и Bag-of-words, эффективны
и имеют интуитивно понятную интерпретируемость, но страдают от «проклятия раз-
мерности» и не могут понимать смысл слов. С другой стороны, современные распределен-
ные методы эффективно определяют скрытую семантику, но требуют больших вычисли-
тельных ресурсов и времени, а также им не хватает интерпретируемости. В этой ста-
тье предлагается новый метод векторизации текстов под названием Bag of weighted Concepts
BoWC, который представляет документ в соответствии с содержащейся в нем ин-
формацией о концептах. Предлагаемый метод создает концепты посредством кластери-
зации векторов слов (т.е. встраивания слов), и использует частоты этих кластеров концептов для представления векторов документов. Чтобы обогатить итоговое представле-
ние документа, предлагается модифицированная весовая функция для взвешивания кон-
цептов на основе статистики, извлеченной из информации вложений слов. Векторы, сге-
нерированные с помощью предложенного метода, характеризуются интерпретируемо-
стью, низкой размерностью, высокой точностью, а также низкими вычислительными
затратами при использовании в задачах классификации и кластеризации. Предлагаемый
метод протестирован на пяти различных наборах эталонных данных для кластеризации и
классификации текстовых документов и сравнивается с несколькими базовыми методами,
включая Bag-of-words, TF-IDF, Averaged GloVe, Bag-of-Concepts и VLAC. Результаты пока-
зывают, что BoWC превосходит большинство базовых методов и дает в среднем на 7 %
лучшую точность.








