Главная Упрощенный режим Описание Шлюз Z39.50
Авторизация
Фамилия
Пароль
 

Базы данных


- результаты поиска

Вид поиска

Область поиска
Формат представления найденных документов:
полныйинформационныйкраткий
Поисковый запрос: (<.>K=classification of adversarial attacks<.>)
Общее количество найденных документов : 1
1.


   
    Состязательные атаки против системы обнаружения вторжений, основанной на применении методов машинного обучения [Текст] = Adversarial attacks against a machine learning based intrusion detection system / А. И. Гетьман, М. Н. Горюнов, А. Г. Мацкевич [и др.] // Проблемы информационной безопасности. Компьютерные системы. - 2023. - № 4. - С. 156-190 : схемы, табл. - Библиогр.: с. 185-187 (49 назв.). - Список литературы представлен на русском и английском языках. . - ISSN 2071-8217
УДК
ББК 32.973
Рубрики: Вычислительная техника
   Программирование ЭВМ. Компьютерные программы. Программотехника

Кл.слова (ненормированные):
adversarial attacks (computing) -- classification of adversarial attacks -- information security -- intrusion detection systems (computing) -- machine learning -- machine learning methods -- network traffic -- neural networks -- информационная безопасность -- классификация состязательных атак -- машинное обучение -- методы машинного обучения -- нейронные сети -- сетевой трафик -- системы обнаружения вторжений (вычислительная техника) -- состязательные атаки (вычислительная техника)
Аннотация: В работе проанализированы релевантные источники в области реализации современных состязательных атак против сетевой системы обнаружения вторжений, анализатор которой построен на основе методов машинного обучения. Обобщённо представлен процесс построения такой системы, указаны часто встречающиеся ошибки разработчиков на каждом этапе, которые могут быть проэксплуатированы злоумышленниками при реализации различных атак. Приведена классификация состязательных атак против моделей машинного обучения, проанализированы наиболее известные состязательные атаки в отношении нейронных сетей и ансамблей решающих деревьев. Отмечены существующие ограничения в применении состязательных атак против моделей обнаружения вторжений типа "случайный лес", на практике реализованы атаки отравления и уклонения в отношении объекта исследования. Рассмотрены возможные стратегии защиты, экспериментально оценена эффективность наиболее распространенного метода - состязательного обучения. Сделан вывод об отсутствии гарантий обеспечения устойчивости используемой модели машинного обучения к состязательным атакам и необходимости поиска защитных стратегий, предоставляющих такие гарантии.
The paper analyzes relevant sources in the field of implementing modern adversarial attacks against a network intrusion detection system, the analyzer of which is based on machine learning methods. The process of building such a system is summarized, the common mistakes of developers at each stage are indicated, which can be exploited by intruders in the implementation of various attacks. The classification of adversarial attacks against machine learning models is given, and the most well-known adversarial attacks against neural networks and ensembles of decision trees are analyzed. The existing limitations in the use of adversarial attacks against intrusion detection models of the "random forest" type are noted, poisoning and evasion attacks against the research object are implemented in practice. Possible defense strategies are considered, and the effectiveness of the most common method, competitive learning, is experimentally evaluated. It is concluded that there are no guarantees to ensure the stability of the used machine learning model to adversarial attacks and the need to search for defensive strategies that provide such guarantees.


Доп.точки доступа:
Гетьман, А. И.; Горюнов, М. Н.; Мацкевич, А. Г.; Рыболовлев, Д. А.; Никольская, А. Г.
Нет сведений об экземплярах (Источник в БД не найден)

Найти похожие

 
© Международная Ассоциация пользователей и разработчиков электронных библиотек и новых информационных технологий
(Ассоциация ЭБНИТ)