Команда применила два передовых алгоритма, сократив время обучения и ускорив обнаружение, при этом сохранив аналогичную эффективность. Испытания проводились с набором данных испытательного стенда оперативной очистки воды в Сингапурском университете технологий и дизайна.
Для повышения прозрачности и доверия исследователи интегрировали модели объяснимого ИИ (XAI) с детекторами аномалий. Это позволяет интерпретировать решения, предлагаемые моделью, предоставляя понимание и возможность проверки рекомендаций перед критическими решениями.
Изучалась эффективность различных моделей XAI, определяя, какие из них наиболее эффективны для человеческого понимания. Исследование подчеркивает необходимость человеческого контроля в процессах принятия решений ИИ. Объясняя рекомендации, ученые стремятся гарантировать роль модели как вспомогательного инструмента, а не абсолютного авторитета.
Доктор Сарад Венугопалан, соавтор исследования, отмечает: «Интеграция объяснимого ИИ повышает прозрачность и доверие, предоставляя сотрудникам информацию о причинах рекомендаций ИИ, позволяя им принимать решения, основанные на человеческих соображениях и нормах».
Доктор Адепу подчеркивает: «Наша работа демонстрирует, как WaXAI трансформирует обнаружение аномалий в промышленных системах с помощью объяснимого ИИ. Интеграция XAI обеспечивает операторов ясностью и уверенностью при управлении инцидентами безопасности CNI».
Эти достижения не только повышают эффективность и надежность ИИ в CNI, но и гарантируют, что операторы остаются неотъемлемой частью процесса принятия решений, усиливая ответственность и доверие.
Источник: www.ixbt.com