Найти
Результаты поиска
-
РАЗРАБОТКА МЕТОДИКИ ИНТЕГРАЦИИ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ В ПРОЦЕССЫ ЦЕНТРА МОНИТОРИНГА ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ
В. А. Частикова , А. С. Бахтин , П.А. Меркулов57-692025-10-01Аннотация ▼Показана важность интеграции больших языковых моделей (БЯМ) в процессы центров мониторинга информационной безопасности (SOC) для повышения их эффективности в условиях растущих киберугроз. Цель исследования – разработка методики интеграции БЯМ в SOC, направленной на автоматизацию процессов анализа данных и реагирования на инциденты. Задачи исследования включают теоретическое обоснование и разработку платформы для безопасного внедрения БЯМ, а также оценку существующих процессов и технической инфраструктуры SOC. В статье анализируются ключевые метрики эффективности работы SOC, такие как среднее время обнаружения инцидента и количество нерешенных инцидентов, и предлагается использование подхода GQM (Goal-Question-Metric) для разработки этих метрик. Рассматривается также необходимость оценки рисков, связанных с использованием БЯМ, с учетом уязвимостей и угроз, а также методов их минимизации, включая использование списка критических уязвимостей от OWASP. В статье предложены основные этапы разработки и внедрения системы, включая инвентаризацию существующих ресурсов, анализ сложности интеграции и развертывание системы. Рассматриваются ключевые аспекты, такие как оценка сложности интеграции, эксплуатационные и поддерживающие факторы, а также оценка рисков, связанных с внедрением новых технологий в инфраструктуру SOC. В заключение подчеркивается актуальность использования БЯМ для улучшения оперативности и качества работы SOC, что способствует повышению уровня информационной безопасности и ускорению реакции на киберугрозы. Внедрение таких технологий позволит SOC не только быстрее реагировать на инциденты, но и повысить точность анализа данных, снижая риски, связанные с человеческим фактором
-
РАЗРАБОТКА ЧАТ-БОТА ДЛЯ КЛАССИФИКАЦИИ И АНАЛИЗА ТЕКСТОВ НА ЕСТЕСТВЕННОМ ЯЗЫКЕ С ИСПОЛЬЗОВАНИЕМ ЛОКАЛЬНЫХ БОЛЬШИХ ЯЗЫКОВЫХ МОДЕЛЕЙ
Али Махмуд Мансур , Жуман Хуссайн Мохаммад , Ю.А. Кравченко159-1712025-07-24Аннотация ▼Исследуются локальные большие языковые модели (Local large language models, Local LLM) и их применение в задачах классификации текста, а также проводится сравнение их производительности с традиционными методами. Статья предоставляет всесторонний обзор ряда ключевых локальных LLM, уделяя особое внимание их архитектурным преимуществам, характеристикам и областям применения. В частности, рассматриваются модели с различным количеством параметров, их способность адаптироваться к специализированным доменам, а также требования к вычислительным ресурсам при их развертывании на локальном оборудовании. Особый акцент делается на компромиссах между производительностью и эффективностью использования ресурсов. В качестве практического вклада разработан чат-бот, использующий локальные LLM (такие как DeepSeek, Gemma и Llama2 через Ollama) для классификации входящих текстов по заранее заданным категориям, демонстрируя работу этих моделей без использования облачных вычислений. Система реализована с модульной архитектурой, позволяющей легко интегрировать новые модели и сравнивать их эффективность. Вычислительный эксперимент включает оценку точности и скорости вывода локальных LLM в сравнении с более простыми методами, такими как Sentence-BERT, TF-IDF и BoWC, выделяя сценарии, в которых локальные модели превосходят традиционные подходы или уступают им. Тестирование проводилось на основе эталонного набора данных BBC. Результаты показывают, что языковые модели (включая модели с 7 миллиардами параметров) демонстрируют сильную и логически обоснованную классификационную производительность при обработке текстов на естественном языке, однако их результаты не являются идеальными для эталонных наборов данных. В частности, обнаружены случаи, когда все тестируемые модели, включая традиционные методы, ошибочно классифицировали документы, что указывает на возможные проблемы в разметке данных. Полученные результаты указывают на необходимость пересмотра эталонных меток в стандартных наборах данных. Это особенно важно для доменов с субъективными категориями, где экспертные оценки могут значительно расходиться. С другой стороны, хотя локальные LLM уступают облачным в скорости, их преимущества в конфиденциальности данных и оффлайн-работе делают их пригодными для специализированных задач.








