Рабочий
2025 / 2026

2267 Методы объяснимого искусственного интеллекта в системах принятия решений автономных беспилотных летательных аппаратов
Старт
20.11.2025
Представление
26.01.2026 – 06.02.2026
Представление
06.04.2026 – 17.04.2026
Постерная сессия
08.06.2026 – 19.06.2026
Защита
22.10.2026 – 03.11.2026
Паспорт проекта
Аннотация
Автономные беспилотные летательные аппараты (БПЛА) все чаще применяются в критически важных областях, таких как доставка грузов, мониторинг окружающей среды, коммерческие операции и спасательные миссии. Однако сложные системы искусственного интеллекта (ИИ), используемые для принятия решений, часто работают как «черные ящики», что затрудняет понимание их логики и снижает доверие пользователей. В данном проекте исследуются методы объяснимого ИИ (XAI — eXplainable Artificial Intelligence),...
Отрасль
Информатика
Теги
XAI
ExplainableAI
AutonomousDrones
InterpretableML
Цель
Разработка и внедрение методов объяснимого искусственного интеллекта (XAI) в системы принятия решений автономных БПЛА для повышения прозрачности, надежности и безопасности их работы.
Ожидаемые результаты
- Анализ современных методов объяснимого ИИ (XAI) и их применимости в автономных БПЛА
- Систематизация существующих подходов (SHAP, LIME, attention-карты, rule-based модели)
- Оценка их совместимости с алгоритмами навигации, компьютерного зрения и RL (Reinforcement Learning)
- Выявление ограничений (вычислительная сложность, задержки в реальном времени)
- Разработка адаптированной XAI-архитектуры для БПЛА
- Интеграция методов объяснимости в конвейер принятия решений (перцепция → планирование → контроль)
Форма и способы промежуточного контроля
1. Теоретико-аналитический этап
Форма контроля: Научные семинары с презентацией результатов
Промежуточные отчеты по анализу литературы (раз в 2 недели)
2. Этап разработки архитектуры
Форма контроля: Технические демонстрации
Прототипирование в симуляторах (AirSim/Gazebo)
Чек-листы соответствия требованиям (ISO/SAE 21434)
Stress-тесты вычислительной эффективности (FPS, задержки)
3. Экспериментальная фаза
Форма контроля: Сравнительные испытания
A/B-тестирование методов XAI (SHAP vs...
Форма представления результатов
1. Научные публикации
Формат: Статьи в рецензируемых журналах (Q1-Q2)
Пример: "Adversarial-Robust Explainable AI for Autonomous Drones" в IEEE Transactions on AI
2. Техническая документация
API-документация XAI-модуля (Swagger/Postman)
Ноутбуки Jupyter с примерами атак/защит
3. Научно-технический отчет, оформленный в соответствии с ГОСТ 7.32-2017, объемом не менее 50 страниц, содержащий приложения, иллюстрационный материал, результаты анализ и экспериментов.
4. Презентация проекта (слайды),...
Ресурсное обеспечение
Бортовые компьютеры:
NVIDIA Jetson AGX Orin / Xavier (для edge-XAI)
Raspberry Pi 5 + Intel Neural Compute Stick (бюджетный вариант)
Программное обеспечение:
Симуляторы: AirSim, Gazebo + ROS, CARLA
Фреймворки: PyTorch, TensorFlow Lite, ONNX Runtime
XAI-библиотеки: SHAP, LIME, Captum, ALIBI
Инструменты для атак: Foolbox, Adversarial Robustness Toolbox
Датасеты:
Публичные: UDACITY Self-Driving Car, Microsoft AirSim Dataset
Собственные: записи реальных полетов (минимум 100 часов)
Вычислительные...
Имеющийся задел
1. Статья С.М. Авдошин, Е.Ю. Песоцкая, К.А. Патрушев «Технологии доверенного искусственного интеллекта»(«Technologies of Trusted Artificial Intelligence») // Информационные технологии. 2024. Т. 30. № 8. С. 400–410.
2. С.М. Авдошин, Е.Ю. Песоцкая «Доверенный искусственный интеллект как способ цифровой защиты» («Trusted artificial intelligence: Strengthening digital protection») // Business Informatics. 2022. Vol. 16. No. 2. P. 62–73.
3. Статья С.М. Авдошин, Е.Ю. Песоцкая «От неизвестности к...
Заказчик
МИЭМ / ДКИ