Куликов, Д. А.
    Cостязательные атаки на системы обнаружения вторжений, использующих LSTM-классификатор [Текст] = Adversarial attacks on intrusion detection systems using LSTM classifier / Д. А. Куликов, В. В. Платонов // Проблемы информационной безопасности. Компьютерные системы. - 2021. - № 2. - С. 48-56 : табл., схемы. - Библиогр.: с. 55-56 (12 назв.) . - ISSN 2071-8217
УДК
ББК 32.973-018
Рубрики: Вычислительная техника
   Программирование ЭВМ. Компьютерные программы. Программотехника

Кл.слова (ненормированные):
LSTM classifiers -- LSTM-классификаторы -- adversarial attacks (computing) -- cyberattacks -- intrusion detection systems (computing) -- machine learning -- neural networks -- кибератаки -- машинное обучение -- нейронные сети -- системы обнаружения вторжений (вычислительная техника) -- состязательные атаки (вычислительная техника)
Аннотация: Рассмотрены состязательные атаки на модели машинного обучения и их классификация. Исследованы методы оценки устойчивости LSTM-классификатора к состязательным атакам. Подробно рассмотрены атаки JSMA и FGSM, выбранные из-за свойства переносимости состязательных примеров между моделями машинного обучения. Предложена атака "отравления" LSTM-классификатора. Сформулированы методы защиты от рассмотренных состязательных атак.
This paper discusses adversarial attacks on machine learning models and their classification. Methods for assessing the resistance of an LSTM classifier to adversarial attacks are investigated. JSMA and FGSM attacks, chosen due to the portability of adversarial examples between machine learning models, are discussed in detail. An attack of "poisoning" of the LSTM classifier is proposed. Methods of protection against the considered adversarial attacks are formulated.


Доп.точки доступа:
Платонов, В. В.
Нет сведений об экземплярах (Источник в БД не найден)




   
    Состязательные атаки против системы обнаружения вторжений, основанной на применении методов машинного обучения [Текст] = Adversarial attacks against a machine learning based intrusion detection system / А. И. Гетьман, М. Н. Горюнов, А. Г. Мацкевич [и др.] // Проблемы информационной безопасности. Компьютерные системы. - 2023. - № 4. - С. 156-190 : схемы, табл. - Библиогр.: с. 185-187 (49 назв.). - Список литературы представлен на русском и английском языках. . - ISSN 2071-8217
УДК
ББК 32.973
Рубрики: Вычислительная техника
   Программирование ЭВМ. Компьютерные программы. Программотехника

Кл.слова (ненормированные):
adversarial attacks (computing) -- classification of adversarial attacks -- information security -- intrusion detection systems (computing) -- machine learning -- machine learning methods -- network traffic -- neural networks -- информационная безопасность -- классификация состязательных атак -- машинное обучение -- методы машинного обучения -- нейронные сети -- сетевой трафик -- системы обнаружения вторжений (вычислительная техника) -- состязательные атаки (вычислительная техника)
Аннотация: В работе проанализированы релевантные источники в области реализации современных состязательных атак против сетевой системы обнаружения вторжений, анализатор которой построен на основе методов машинного обучения. Обобщённо представлен процесс построения такой системы, указаны часто встречающиеся ошибки разработчиков на каждом этапе, которые могут быть проэксплуатированы злоумышленниками при реализации различных атак. Приведена классификация состязательных атак против моделей машинного обучения, проанализированы наиболее известные состязательные атаки в отношении нейронных сетей и ансамблей решающих деревьев. Отмечены существующие ограничения в применении состязательных атак против моделей обнаружения вторжений типа "случайный лес", на практике реализованы атаки отравления и уклонения в отношении объекта исследования. Рассмотрены возможные стратегии защиты, экспериментально оценена эффективность наиболее распространенного метода - состязательного обучения. Сделан вывод об отсутствии гарантий обеспечения устойчивости используемой модели машинного обучения к состязательным атакам и необходимости поиска защитных стратегий, предоставляющих такие гарантии.
The paper analyzes relevant sources in the field of implementing modern adversarial attacks against a network intrusion detection system, the analyzer of which is based on machine learning methods. The process of building such a system is summarized, the common mistakes of developers at each stage are indicated, which can be exploited by intruders in the implementation of various attacks. The classification of adversarial attacks against machine learning models is given, and the most well-known adversarial attacks against neural networks and ensembles of decision trees are analyzed. The existing limitations in the use of adversarial attacks against intrusion detection models of the "random forest" type are noted, poisoning and evasion attacks against the research object are implemented in practice. Possible defense strategies are considered, and the effectiveness of the most common method, competitive learning, is experimentally evaluated. It is concluded that there are no guarantees to ensure the stability of the used machine learning model to adversarial attacks and the need to search for defensive strategies that provide such guarantees.


Доп.точки доступа:
Гетьман, А. И.; Горюнов, М. Н.; Мацкевич, А. Г.; Рыболовлев, Д. А.; Никольская, А. Г.
Нет сведений об экземплярах (Источник в БД не найден)