Найти
Результаты поиска
-
МОДИФИЦИРОВАННЫЙ МЕТОД УСТРАНЕНИЯ НЕОДНОЗНАЧНОСТИ СМЫСЛА СЛОВ, ОСНОВАННЫЙ НА МЕТОДАХ РАСПРЕДЕЛЕННОГО ПРЕДСТАВЛЕНИЯ
Ю.А. Кравченко , Мансур Али Махмуд, Мохаммад Жуман Хуссайн2021-08-11Аннотация ▼В задачах интеллектуального анализа текста текстовое представление должно
быть не только эффективным, но и интерпретируемым, поскольку это позволяет понять
операционную логику, лежащую в основе моделей интеллектуального анализа данных. В
этой статье предлагается модифицированный метод устранения неоднозначности слов
(WSD), который, по сути, имитирует хорошо известный вариант подхода Леска WSD. Для
выбранного слова и его контекста алгоритм Леска проводит свои вычисления на основе
проверки совпадений контекста слова и каждого определения его смыслов (глосс), для того
чтобы выбрать правильное значение. Основным преимуществом данного метода является
применение концепции сходства между определением и контекстом вместо «перекры-
тия», для каждого смысла целевого слова в дополнение к расширению определения приме-
рами предоставленными WordNet. Предлагаемый метод также характеризуется исполь-
зованием функций измерения схожести текстов, определенных в распределенном семан-
тическом пространстве. Предлагаемый метод протестирован на пяти различных наборах
эталонных данных для задачи устранения неоднозначности смысла слов и сравнивался с
несколькими базовыми методами, включая Lesk, расширенный Lesk, WordNet 1st sense,
Babelfy и UKB. Результаты показывают, что предлагаемый метод превосходит большин-
ство известных аналогов, за исключением методов Babelfy и WN 1st sense. -
РАЗРАБОТКА ЧАТ-БОТА ДЛЯ КЛАССИФИКАЦИИ И АНАЛИЗА ТЕКСТОВ НА ЕСТЕСТВЕННОМ ЯЗЫКЕ С ИСПОЛЬЗОВАНИЕМ ЛОКАЛЬНЫХ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ
Али Махмуд Мансур , Жуман Хуссайн Мохаммад , Ю.А. Кравченко159-1712025-07-24Аннотация ▼Исследуются локальные большие языковые модели (Local large language models, Local LLM) и их применение в задачах классификации текста, а также проводится сравнение их производительности с традиционными методами. Статья предоставляет всесторонний обзор ряда ключевых локальных LLM, уделяя особое внимание их архитектурным преимуществам, характеристикам и областям применения. В частности, рассматриваются модели с различным количеством параметров, их способность адаптироваться к специализированным доменам, а также требования к вычислительным ресурсам при их развертывании на локальном оборудовании. Особый акцент делается на компромиссах между производительностью и эффективностью использования ресурсов. В качестве практического вклада разработан чат-бот, использующий локальные LLM (такие как DeepSeek, Gemma и Llama2 через Ollama) для классификации входящих текстов по заранее заданным категориям, демонстрируя работу этих моделей без использования облачных вычислений. Система реализована с модульной архитектурой, позволяющей легко интегрировать новые модели и сравнивать их эффективность. Вычислительный эксперимент включает оценку точности и скорости вывода локальных LLM в сравнении с более простыми методами, такими как Sentence-BERT, TF-IDF и BoWC, выделяя сценарии, в которых локальные модели превосходят традиционные подходы или уступают им. Тестирование проводилось на основе эталонного набора данных BBC. Результаты показывают, что языковые модели (включая модели с 7 миллиардами параметров) демонстрируют сильную и логически обоснованную классификационную производительность при обработке текстов на естественном языке, однако их результаты не являются идеальными для эталонных наборов данных. В частности, обнаружены случаи, когда все тестируемые модели, включая традиционные методы, ошибочно классифицировали документы, что указывает на возможные проблемы в разметке данных. Полученные результаты указывают на необходимость пересмотра эталонных меток в стандартных наборах данных. Это особенно важно для доменов с субъективными категориями, где экспертные оценки могут значительно расходиться. С другой стороны, хотя локальные LLM уступают облачным в скорости, их преимущества в конфиденциальности данных и оффлайн-работе делают их пригодными для специализированных задач.
-
ИЗВЛЕЧЕНИЕ КЛЮЧЕВЫХ ФРАЗ НА ОСНОВЕ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ
Мохаммад Жуман Хуссайн2024-11-10Аннотация ▼Статья посвящена актуальной проблеме извлечения ключевых фраз из текстов на естест-
венном языке, что является критически важной задачей в области обработки естественного
языка и интеллектуального анализа текста. В ней подробно рассматриваются основные подходы
к извлечению ключевых фраз (ключевых слов), включая как традиционные методы, так и совре-
менные подходы на основе искусственного интеллекта. В статье рассматривается набор широко
используемых методов в этой области, таких как TF-IDF, RAKE, YAKE и методы, основанные на
лингвистических анализаторах (парсерах). Эти методы опираются на статистические принципы
и графовые структуры, но часто сталкиваются с проблемами, связанными с недостаточной спо-
собностью учитывать контекст текста. Большая языковая модель GPT-3 демонстрирует пре-
восходное понимание контекста по сравнению с традиционными методами извлечения ключевых
фраз. Эта продвинутая способность позволяет GPT-3 более точно идентифицировать и извле-
кать релевантные ключевые фразы из текста. Сравнительный анализ с использованием эталон-
ного набора данных Inspec показывает значительно более высокую производительность GPT-3 с
точки зрения средней точности (Mean Average Precision, MAP). Однако следует отметить, что,
несмотря на высокую точность и качество извлечения, использование больших языковых моделей
может быть ограничено в реальном времени из-за их более длительного времени отклика по срав-
нению с классическими статистическими методами. Таким образом, статья подчеркивает необ-
ходимость дальнейших исследований в этой области для оптимизации алгоритмов извлечения
ключевых фраз с учетом требований реального времени и контекста текстов -
ВЕКТОРИЗАЦИЯ ТЕКСТА С ИСПОЛЬЗОВАНИЕМ МЕТОДОВ ИНТЕЛЛЕКТУАЛЬНОГО АНАЛИЗА ДАННЫХ
Али Махмуд Мансур , Жуман Хуссайн Мохаммад , Ю. А. Кравченко2021-07-18Аннотация ▼В задачах интеллектуального анализа текста текстовое представление должно
быть не только эффективным, но и интерпретируемым, поскольку это позволяет понять
операционную логику, лежащую в основе моделей интеллектуального анализа данных. Тра-
диционные методы векторизации текста, такие как TF-IDF и Bag-of-words, эффективны
и имеют интуитивно понятную интерпретируемость, но страдают от «проклятия раз-
мерности» и не могут понимать смысл слов. С другой стороны, современные распределен-
ные методы эффективно определяют скрытую семантику, но требуют больших вычисли-
тельных ресурсов и времени, а также им не хватает интерпретируемости. В этой ста-
тье предлагается новый метод векторизации текстов под названием Bag of weighted Concepts
BoWC, который представляет документ в соответствии с содержащейся в нем ин-
формацией о концептах. Предлагаемый метод создает концепты посредством кластери-
зации векторов слов (т.е. встраивания слов), и использует частоты этих кластеров концептов для представления векторов документов. Чтобы обогатить итоговое представле-
ние документа, предлагается модифицированная весовая функция для взвешивания кон-
цептов на основе статистики, извлеченной из информации вложений слов. Векторы, сге-
нерированные с помощью предложенного метода, характеризуются интерпретируемо-
стью, низкой размерностью, высокой точностью, а также низкими вычислительными
затратами при использовании в задачах классификации и кластеризации. Предлагаемый
метод протестирован на пяти различных наборах эталонных данных для кластеризации и
классификации текстовых документов и сравнивается с несколькими базовыми методами,
включая Bag-of-words, TF-IDF, Averaged GloVe, Bag-of-Concepts и VLAC. Результаты пока-
зывают, что BoWC превосходит большинство базовых методов и дает в среднем на 7 %
лучшую точность.








