Завершен
2024 / 2025

2179 RnD инструментов MLSecOps
Старт
10.03.2025
Представление
27.01.2025 – 07.02.2025
Постерная сессия
14.04.2025 – 25.04.2025
Защита
05.11.2025 – 19.11.2025
Паспорт проекта
Аннотация
Проект посвящен исследованию и разработке открытых инструментов для обеспечения безопасности моделей машинного обучения (ML) и их датасетов. В рамках проекта будут проанализированы основные вектора атак на готовые модели и наборы данных для ML. Также будет проведено исследование современных инструментов и методов проверки на безопасность ML-моделей и наборов данных.
Отрасль
Информационная безопасность
Теги
Машинное обучение
Информационная безоп
Безопасность
ML
Цель
Подготовить реестр решений и инструментов подходящих для защиты систем использующих ML - компоненты. Помочь разработчикам и исследователям лучше понимать риски безопасности в машинном обучении и выбирать подходящие инструменты для защиты.
Ожидаемые результаты
- Исследование векторов атак и открытых инструментов для обеспечения безопасности ML
- Обзор современных методов facial feature extraction методами ML
- Обзор статей и утилит для реализации атак и защиты от техники Poison Training Data обучающих выборок (не графические данные)
- Обзор статей и утилит для реализации атак и защиты от техники "Evade ML Model" (не графические данные)
- Обзор статей и утилит для реализации атак и защиты от техник "Backdoor ML Model" (не графические данные)
Форма и способы промежуточного контроля
Планирование по SCRUM методологии. Онлайн встречи с руководителем каждую неделю. Очные и онлайн втсречи с куратором из VK минимум раз в месяц. Подготовка промежуточных отчетов за месяц.
Форма представления результатов
Подготовка итогового отчета о проведенных исследованиях.
Ресурсное обеспечение
ПК с установленным интерпретатором Python 3.8 и выше
Имеющийся задел
Частично составлен список OSS решений для рассмотрения
Заказчик
Организация / VK