Перейти к основному контенту Перейти к главному меню навигации Перейти к нижнему колонтитулу сайта
##common.pageHeaderLogo.altText##
Известия ЮФУ
Технические науки
  • Текущий выпуск
  • Предыдущие выпуски
    • Архив
    • Выпуски 1995 – 2019
  • Редакционный совет
  • О журнале
    • Официально
    • Основные задачи
    • Основные рубрики
    • Специальности ВАК РФ
    • Главный редактор
English
ISSN 1999-9429 print
ISSN 2311-3103 online
  • Вход
  1. Главная /
  2. Найти

Найти

Расширенные фильтры
Опубликовано после
Опубликовано до

Результаты поиска

Найдено результатов: 4.
  • МОДИФИЦИРОВАННЫЙ МЕТОД УСТРАНЕНИЯ НЕОДНОЗНАЧНОСТИ СМЫСЛА СЛОВ, ОСНОВАННЫЙ НА МЕТОДАХ РАСПРЕДЕЛЕННОГО ПРЕДСТАВЛЕНИЯ

    Ю.А. Кравченко , Мансур Али Махмуд, Мохаммад Жуман Хуссайн
    2021-08-11
    Аннотация ▼

    В задачах интеллектуального анализа текста текстовое представление должно
    быть не только эффективным, но и интерпретируемым, поскольку это позволяет понять
    операционную логику, лежащую в основе моделей интеллектуального анализа данных. В
    этой статье предлагается модифицированный метод устранения неоднозначности слов
    (WSD), который, по сути, имитирует хорошо известный вариант подхода Леска WSD. Для
    выбранного слова и его контекста алгоритм Леска проводит свои вычисления на основе
    проверки совпадений контекста слова и каждого определения его смыслов (глосс), для того
    чтобы выбрать правильное значение. Основным преимуществом данного метода является
    применение концепции сходства между определением и контекстом вместо «перекры-
    тия», для каждого смысла целевого слова в дополнение к расширению определения приме-
    рами предоставленными WordNet. Предлагаемый метод также характеризуется исполь-
    зованием функций измерения схожести текстов, определенных в распределенном семан-
    тическом пространстве. Предлагаемый метод протестирован на пяти различных наборах
    эталонных данных для задачи устранения неоднозначности смысла слов и сравнивался с
    несколькими базовыми методами, включая Lesk, расширенный Lesk, WordNet 1st sense,
    Babelfy и UKB. Результаты показывают, что предлагаемый метод превосходит большин-
    ство известных аналогов, за исключением методов Babelfy и WN 1st sense.

  • РАЗРАБОТКА ЧАТ-БОТА ДЛЯ КЛАССИФИКАЦИИ И АНАЛИЗА ТЕКСТОВ НА ЕСТЕСТВЕННОМ ЯЗЫКЕ С ИСПОЛЬЗОВАНИЕМ ЛОКАЛЬНЫХ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ

    Али Махмуд Мансур , Жуман Хуссайн Мохаммад , Ю.А. Кравченко
    159-171
    2025-07-24
    Аннотация ▼

    Исследуются локальные большие языковые модели (Local large language models, Local LLM) и их применение в задачах классификации текста, а также проводится сравнение их производительности с традиционными методами. Статья предоставляет всесторонний обзор ряда ключевых локальных LLM, уделяя особое внимание их архитектурным преимуществам, характеристикам и областям применения. В частности, рассматриваются модели с различным количеством параметров, их способность адаптироваться к специализированным доменам, а также требования к вычислительным ресурсам при их развертывании на локальном оборудовании. Особый акцент делается на компромиссах между производительностью и эффективностью использования ресурсов. В качестве практического вклада разработан чат-бот, использующий локальные LLM (такие как DeepSeek, Gemma и Llama2 через Ollama) для классификации входящих текстов по заранее заданным категориям, демонстрируя работу этих моделей без использования облачных вычислений. Система реализована с модульной архитектурой, позволяющей легко интегрировать новые модели и сравнивать их эффективность. Вычислительный эксперимент включает оценку точности и скорости вывода локальных LLM в сравнении с более простыми методами, такими как Sentence-BERT, TF-IDF и BoWC, выделяя сценарии, в которых локальные модели превосходят традиционные подходы или уступают им. Тестирование проводилось на основе эталонного набора данных BBC. Результаты показывают, что языковые модели (включая модели с 7 миллиардами параметров) демонстрируют сильную и логически обоснованную классификационную производительность при обработке текстов на естественном языке, однако их результаты не являются идеальными для эталонных наборов данных. В частности, обнаружены случаи, когда все тестируемые модели, включая традиционные методы, ошибочно классифицировали документы, что указывает на возможные проблемы в разметке данных. Полученные результаты указывают на необходимость пересмотра эталонных меток в стандартных наборах данных. Это особенно важно для доменов с субъективными категориями, где экспертные оценки могут значительно расходиться. С другой стороны, хотя локальные LLM уступают облачным в скорости, их преимущества в конфиденциальности данных и оффлайн-работе делают их пригодными для специализированных задач.

  • ИЗВЛЕЧЕНИЕ КЛЮЧЕВЫХ ФРАЗ НА ОСНОВЕ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ

    Мохаммад Жуман Хуссайн
    2024-11-10
    Аннотация ▼

    Статья посвящена актуальной проблеме извлечения ключевых фраз из текстов на естест-
    венном языке, что является критически важной задачей в области обработки естественного
    языка и интеллектуального анализа текста. В ней подробно рассматриваются основные подходы
    к извлечению ключевых фраз (ключевых слов), включая как традиционные методы, так и совре-
    менные подходы на основе искусственного интеллекта. В статье рассматривается набор широко
    используемых методов в этой области, таких как TF-IDF, RAKE, YAKE и методы, основанные на
    лингвистических анализаторах (парсерах). Эти методы опираются на статистические принципы
    и графовые структуры, но часто сталкиваются с проблемами, связанными с недостаточной спо-
    собностью учитывать контекст текста. Большая языковая модель GPT-3 демонстрирует пре-
    восходное понимание контекста по сравнению с традиционными методами извлечения ключевых
    фраз. Эта продвинутая способность позволяет GPT-3 более точно идентифицировать и извле-
    кать релевантные ключевые фразы из текста. Сравнительный анализ с использованием эталон-
    ного набора данных Inspec показывает значительно более высокую производительность GPT-3 с
    точки зрения средней точности (Mean Average Precision, MAP). Однако следует отметить, что,
    несмотря на высокую точность и качество извлечения, использование больших языковых моделей
    может быть ограничено в реальном времени из-за их более длительного времени отклика по срав-
    нению с классическими статистическими методами. Таким образом, статья подчеркивает необ-
    ходимость дальнейших исследований в этой области для оптимизации алгоритмов извлечения
    ключевых фраз с учетом требований реального времени и контекста текстов

  • ВЕКТОРИЗАЦИЯ ТЕКСТА С ИСПОЛЬЗОВАНИЕМ МЕТОДОВ ИНТЕЛЛЕКТУАЛЬНОГО АНАЛИЗА ДАННЫХ

    Али Махмуд Мансур , Жуман Хуссайн Мохаммад , Ю. А. Кравченко
    2021-07-18
    Аннотация ▼

    В задачах интеллектуального анализа текста текстовое представление должно
    быть не только эффективным, но и интерпретируемым, поскольку это позволяет понять
    операционную логику, лежащую в основе моделей интеллектуального анализа данных. Тра-
    диционные методы векторизации текста, такие как TF-IDF и Bag-of-words, эффективны
    и имеют интуитивно понятную интерпретируемость, но страдают от «проклятия раз-
    мерности» и не могут понимать смысл слов. С другой стороны, современные распределен-
    ные методы эффективно определяют скрытую семантику, но требуют больших вычисли-
    тельных ресурсов и времени, а также им не хватает интерпретируемости. В этой ста-
    тье предлагается новый метод векторизации текстов под названием Bag of weighted Concepts
    BoWC, который представляет документ в соответствии с содержащейся в нем ин-
    формацией о концептах. Предлагаемый метод создает концепты посредством кластери-
    зации векторов слов (т.е. встраивания слов), и использует частоты этих кластеров концептов для представления векторов документов. Чтобы обогатить итоговое представле-
    ние документа, предлагается модифицированная весовая функция для взвешивания кон-
    цептов на основе статистики, извлеченной из информации вложений слов. Векторы, сге-
    нерированные с помощью предложенного метода, характеризуются интерпретируемо-
    стью, низкой размерностью, высокой точностью, а также низкими вычислительными
    затратами при использовании в задачах классификации и кластеризации. Предлагаемый
    метод протестирован на пяти различных наборах эталонных данных для кластеризации и
    классификации текстовых документов и сравнивается с несколькими базовыми методами,
    включая Bag-of-words, TF-IDF, Averaged GloVe, Bag-of-Concepts и VLAC. Результаты пока-
    зывают, что BoWC превосходит большинство базовых методов и дает в среднем на 7 %
    лучшую точность.

1 - 4 из 4 результатов

links

Для авторов
  • Подать статью
  • Требования к рукописи
  • Редакционная политика
  • Рецензирование
  • Этика научных публикаций
  • Политика открытого доступа
  • Сопроводительные документы
Язык
  • English
  • Русский

journal

* не является рекламой

index

Индексация журнала
* не является рекламой
Информация
  • Для читателей
  • Для авторов
  • Для библиотек
Адрес редакции: 347900, г. Таганрог, ул. Чехова, д. 22, А-211 Телефон: +7 (8634) 37-19-80 Электронная почта: iborodyanskiy@sfedu.ru
Публикация в журнале бесплатна
Больше информации об этой издательской системе, платформе и рабочем процессе от OJS/PKP.
logo Сайт разработан командой ЦИИР