Завершен
2024 / 2025

2174 Инструмент контроля безопасности ML моделей и датасетов
Старт
31.03.2025
Представление
27.01.2025 – 07.02.2025
Постерная сессия
14.04.2025 – 25.04.2025
Защита
05.11.2025 – 19.11.2025
Паспорт проекта
Аннотация
В рамках проекта должен быть разработан инструмент для оценки безопасности моделей машинного обучения и связанных с ними датасетов. С использованием нескольких открытых программных решений (OSS) будет реализован процесс дедупликации результатов, что позволит эффективно выявлять уязвимости и потенциальные угрозы.
Отрасль
Информационная безопасность
Теги
Машинное обучение
Безопасность
Цель
Создать интегрированный ресурс, который обеспечит разработчиков необходимыми инструментами для анализа и повышения безопасности их ML-систем
Ожидаемые результаты
- Общие требования
- Обеспечение отказоустойчивости и производительности
- Сбор и отображение метрик производительности (время анализа, нагрузка)
- Логирование всех операций для последующего анализа
- Реализация интерфейса типа CLI для ввод моделей и датасетов и получения отчётов в удобном формате
- Инструмент должен быть модульным и легко расширяемым для интеграции с новыми OSS
- Функционал анализа моделей
- Проверка на устойчивость к атака типа model stealing, membership inference attacks, adversarial attacks и др.
Форма и способы промежуточного контроля
Планирование по SCRUM методологии. Онлайн встречи с руководителем каждую неделю. Очные и онлайн втсречи с куратором из VK минимум раз в месяц.
Форма представления результатов
Консольная утилита (python скрипт) для выполнения оценки безопасности моделей и датасетов
Ресурсное обеспечение
ПК с установленным интерпретатором Python 3.8 и выше
Имеющийся задел
Частично составлен список OSS решений для рассмотрения
Заказчик
Организация / VK