Куликов, Д. А.
    Cостязательные атаки на системы обнаружения вторжений, использующих LSTM-классификатор [Текст] = Adversarial attacks on intrusion detection systems using LSTM classifier / Д. А. Куликов, В. В. Платонов // Проблемы информационной безопасности. Компьютерные системы. - 2021. - № 2. - С. 48-56 : табл., схемы. - Библиогр.: с. 55-56 (12 назв.) . - ISSN 2071-8217
УДК
ББК 32.973-018
Рубрики: Вычислительная техника
   Программирование ЭВМ. Компьютерные программы. Программотехника

Кл.слова (ненормированные):
LSTM classifiers -- LSTM-классификаторы -- adversarial attacks (computing) -- cyberattacks -- intrusion detection systems (computing) -- machine learning -- neural networks -- кибератаки -- машинное обучение -- нейронные сети -- системы обнаружения вторжений (вычислительная техника) -- состязательные атаки (вычислительная техника)
Аннотация: Рассмотрены состязательные атаки на модели машинного обучения и их классификация. Исследованы методы оценки устойчивости LSTM-классификатора к состязательным атакам. Подробно рассмотрены атаки JSMA и FGSM, выбранные из-за свойства переносимости состязательных примеров между моделями машинного обучения. Предложена атака "отравления" LSTM-классификатора. Сформулированы методы защиты от рассмотренных состязательных атак.
This paper discusses adversarial attacks on machine learning models and their classification. Methods for assessing the resistance of an LSTM classifier to adversarial attacks are investigated. JSMA and FGSM attacks, chosen due to the portability of adversarial examples between machine learning models, are discussed in detail. An attack of "poisoning" of the LSTM classifier is proposed. Methods of protection against the considered adversarial attacks are formulated.


Доп.точки доступа:
Платонов, В. В.
Нет сведений об экземплярах (Источник в БД не найден)




    Калинин, М. О.
    Децентрализованный подход к обнаружению вторжений в динамических сетях интернета вещей на базе многоагентного обучения с подкреплением и межагентным взаимодействием [Текст] = Decentralized approach to intrusion detection in dynamic networks of the internet of things basing on multi-agent reinforcement learning and inter-agent communication / М. О. Калинин, Е. И. Ткачева // Проблемы информационной безопасности. Компьютерные системы. - 2023. - № 2. - С. 202-211 : схемы, табл. - Библиогр.: с. 210 (16 назв.). - Список литературы представлен на русском и английском языках. . - ISSN 2071-8217
УДК
ББК 32.973
Рубрики: Вычислительная техника
   Программирование ЭВМ. Компьютерные программы. Программотехника

Кл.слова (ненормированные):
Internet of Things -- cybersecurity -- dynamic Internet networks -- intrusion detection systems (computing) -- machine learning -- multi-agent training (computing) -- Интернет вещей -- динамические сети Интернета -- кибербезопасность -- машинное обучение -- многоагентное обучение (вычислительная техника) -- системы обнаружения вторжений (вычислительная техника)
Аннотация: Рассматривается применение технологии многоагентного обучения с подкреплением для решения задачи обнаружения вторжений в системах Интернета вещей. Реализованы три макета многоагентной системы обнаружения вторжений: полностью децентрализованная система, система с передачей информации о прогнозах, система с передачей информации о наблюдениях. Полученные экспериментальные результаты приведены в сравнении с открытой системой обнаружения вторжений Suricata. Показано, что рассмотренные архитектуры многоагентных систем избавлены от недостатков существующих решений.
The paper proposes a multi-agent reinforcement learning technology for intrusion detection in the Internet of Things. Three models of a multi-agent intrusion detection system have been implemented - a decentralized system, a system with the transmission of forecasts, a system with the transmission of observations. The obtained experimental results have been compared with the open intrusion detection system Suricata. It has been demonstrated that the proposed architectures of multi-agent systems are free from the weaknesses found in the usual solutions.


Доп.точки доступа:
Ткачева, Е. И.
Нет сведений об экземплярах (Источник в БД не найден)




    Югай, П. Э.
    Использование алгоритмов машинного обучения и Honeypot-систем для обнаружения состязательных атак на системы обнаружения вторжений [Текст] = Using machine learning algorithms and Honeypot systems to detect adversarial attacks on intrusion detection systems / П. Э. Югай, Д. А. Москвин // Проблемы информационной безопасности. Компьютерные системы. - 2023. - № 4. - С. 145-155 : граф., табл., схема. - Библиогр.: с. 152-153 (23 назв.). - Список литературы представлен на русском и английском языках. . - ISSN 2071-8217
УДК
ББК 32.973
Рубрики: Вычислительная техника
   Программирование ЭВМ. Компьютерные программы. Программотехника

Кл.слова (ненормированные):
Honeypot systems -- Honeypot-системы -- adversarial attack detection (computing) -- evasion attack (computing) -- information security -- intrusion detection systems (computing) -- machine learning algorithms -- model extraction attack -- multiclass classifiers -- алгоритмы машинного обучения -- атака извлечения модели -- атака уклонения (вычислительная техника) -- информационная безопасность -- многоклассовые классификаторы -- обнаружение состязательных атак (вычислительная техника) -- системы обнаружения вторжений (вычислительная техника)
Аннотация: В данной работе представлены состязательные атаки на алгоритмы машинного обучения в системах обнаружения вторжений. Исследованы некоторые примеры существующих систем обнаружения вторжений. Рассмотрены существующие подходы к обнаружению данных атак. Сформированы требования, позволяющие повысить устойчивость алгоритмов машинного обучения. Предложены два подхода к обнаружению состязательных атак на алгоритмы машинного обучения, первый из которых основывается на многоклассовом классификаторе и Honeypot-системе, а второй подход использует в совокупности многоклассовый и бинарный классификатор. Предложенные подходы могут быть использованы в дальнейших исследованиях, которые направлены на обнаружение состязательных атак на алгоритмы машинного обучения.
This paper presents adversarial attacks on machine learning algorithms in intrusion detection systems. Some examples of existing intrusion detection systems have been investigated. The existing approaches to detecting these attacks are considered. Requirements have been formed to increase the stability of machine learning algorithms. Two approaches to detecting adversarial attacks on machine learning algorithms are proposed, the first of which is based on a multiclass classifier and a Honeypot system, and the second approach uses a multiclass and binary classifier together. The proposed approaches can be used in further research aimed at detecting adversarial attacks on machine learning algorithms.


Доп.точки доступа:
Москвин, Д. А.
Нет сведений об экземплярах (Источник в БД не найден)




   
    Состязательные атаки против системы обнаружения вторжений, основанной на применении методов машинного обучения [Текст] = Adversarial attacks against a machine learning based intrusion detection system / А. И. Гетьман, М. Н. Горюнов, А. Г. Мацкевич [и др.] // Проблемы информационной безопасности. Компьютерные системы. - 2023. - № 4. - С. 156-190 : схемы, табл. - Библиогр.: с. 185-187 (49 назв.). - Список литературы представлен на русском и английском языках. . - ISSN 2071-8217
УДК
ББК 32.973
Рубрики: Вычислительная техника
   Программирование ЭВМ. Компьютерные программы. Программотехника

Кл.слова (ненормированные):
adversarial attacks (computing) -- classification of adversarial attacks -- information security -- intrusion detection systems (computing) -- machine learning -- machine learning methods -- network traffic -- neural networks -- информационная безопасность -- классификация состязательных атак -- машинное обучение -- методы машинного обучения -- нейронные сети -- сетевой трафик -- системы обнаружения вторжений (вычислительная техника) -- состязательные атаки (вычислительная техника)
Аннотация: В работе проанализированы релевантные источники в области реализации современных состязательных атак против сетевой системы обнаружения вторжений, анализатор которой построен на основе методов машинного обучения. Обобщённо представлен процесс построения такой системы, указаны часто встречающиеся ошибки разработчиков на каждом этапе, которые могут быть проэксплуатированы злоумышленниками при реализации различных атак. Приведена классификация состязательных атак против моделей машинного обучения, проанализированы наиболее известные состязательные атаки в отношении нейронных сетей и ансамблей решающих деревьев. Отмечены существующие ограничения в применении состязательных атак против моделей обнаружения вторжений типа "случайный лес", на практике реализованы атаки отравления и уклонения в отношении объекта исследования. Рассмотрены возможные стратегии защиты, экспериментально оценена эффективность наиболее распространенного метода - состязательного обучения. Сделан вывод об отсутствии гарантий обеспечения устойчивости используемой модели машинного обучения к состязательным атакам и необходимости поиска защитных стратегий, предоставляющих такие гарантии.
The paper analyzes relevant sources in the field of implementing modern adversarial attacks against a network intrusion detection system, the analyzer of which is based on machine learning methods. The process of building such a system is summarized, the common mistakes of developers at each stage are indicated, which can be exploited by intruders in the implementation of various attacks. The classification of adversarial attacks against machine learning models is given, and the most well-known adversarial attacks against neural networks and ensembles of decision trees are analyzed. The existing limitations in the use of adversarial attacks against intrusion detection models of the "random forest" type are noted, poisoning and evasion attacks against the research object are implemented in practice. Possible defense strategies are considered, and the effectiveness of the most common method, competitive learning, is experimentally evaluated. It is concluded that there are no guarantees to ensure the stability of the used machine learning model to adversarial attacks and the need to search for defensive strategies that provide such guarantees.


Доп.точки доступа:
Гетьман, А. И.; Горюнов, М. Н.; Мацкевич, А. Г.; Рыболовлев, Д. А.; Никольская, А. Г.
Нет сведений об экземплярах (Источник в БД не найден)