Куликов, Д. А.
    Cостязательные атаки на системы обнаружения вторжений, использующих LSTM-классификатор [Текст] = Adversarial attacks on intrusion detection systems using LSTM classifier / Д. А. Куликов, В. В. Платонов // Проблемы информационной безопасности. Компьютерные системы. - 2021. - № 2. - С. 48-56 : табл., схемы. - Библиогр.: с. 55-56 (12 назв.) . - ISSN 2071-8217
УДК
ББК 32.973-018
Рубрики: Вычислительная техника
   Программирование ЭВМ. Компьютерные программы. Программотехника

Кл.слова (ненормированные):
LSTM classifiers -- LSTM-классификаторы -- adversarial attacks (computing) -- cyberattacks -- intrusion detection systems (computing) -- machine learning -- neural networks -- кибератаки -- машинное обучение -- нейронные сети -- системы обнаружения вторжений (вычислительная техника) -- состязательные атаки (вычислительная техника)
Аннотация: Рассмотрены состязательные атаки на модели машинного обучения и их классификация. Исследованы методы оценки устойчивости LSTM-классификатора к состязательным атакам. Подробно рассмотрены атаки JSMA и FGSM, выбранные из-за свойства переносимости состязательных примеров между моделями машинного обучения. Предложена атака "отравления" LSTM-классификатора. Сформулированы методы защиты от рассмотренных состязательных атак.
This paper discusses adversarial attacks on machine learning models and their classification. Methods for assessing the resistance of an LSTM classifier to adversarial attacks are investigated. JSMA and FGSM attacks, chosen due to the portability of adversarial examples between machine learning models, are discussed in detail. An attack of "poisoning" of the LSTM classifier is proposed. Methods of protection against the considered adversarial attacks are formulated.


Доп.точки доступа:
Платонов, В. В.
Нет сведений об экземплярах (Источник в БД не найден)