BelNET logoНаучно-образовательный портал ядерных знаний Республики Беларусь BelNET (Belarusian Nuclear Education and Training)

ИИ в ядерной отрасли: стратегия NRC

Ядерная отрасль является одним из ключевых направлений для внедрения методов машинного обучения и искусственного интеллекта (ИИ), и использование этих технологий открывает значительные перспективы. Комиссия по ядерному регулированию США (US NRC) изучает возможные пути их применения.

В стратегическом документе за 2024 год US NRC отметила, что стремительное развитие ИИ обладает «огромным потенциалом для преобразования методов работы как самой ядерной отрасли, так и регулятора». В настоящее время организация находится на середине реализации Стратегического плана на 2023–2027 финансовые годы, который сосредоточен не только на потенциальных функциях ИИ, но и на развитии собственных возможностей комиссии по анализу и оценке его применения, отслеживанию технологических инноваций, а также обеспечению безопасного и защищённого использования этих технологий.

Стратегический план, принятый в апреле 2024 года, включает пять ключевых целей:

  • Обеспечение готовности NRC к принятию регуляторных решений;
  • Создание организационной структуры для рассмотрения применений ИИ;
  • Укрепление и расширение партнёрств в области ИИ;
  • Формирование квалифицированных кадров, компетентных в сфере ИИ;
  • Реализация практических кейсов для создания основы внедрения ИИ в деятельности NRC.

Для достижения этих целей агентство наращивает экспертизу в области ИИ среди сотрудников NRC, поддерживает опережающее отслеживание технологических инноваций в сфере ИИ, а также развивает сотрудничество с другими федеральными ведомствами и регулирующими органами зарубежных стран.

Ключевым элементом стратегии является оценка практических кейсов применения. Сотрудники NRC идентифицировали 61 потенциальный сценарий использования ИИ, которые могут повысить организационную эффективность или улучшить взаимодействие с заинтересованными сторонами. Из этих 61 потенциального кейса 36 были признаны соответствующими возможностям современных инструментов ИИ. Остальные могут быть реализованы с использованием не-ИИ решений.

Для реализации этих инициатив комиссии потребуется: продуманная стратегия работы с данными и программа управления данными; система управления ИИ (AI governance); ИТ-инфраструктура, поддерживающая разработку ИИ-решений; квалифицированные кадры в области ИИ.

  • Следующие шаги плана внедрения для NRC включают:
  • Разработку общеорганизационной стратегии ИИ для продвижения его использования в комиссии;
  • Создание системы управления ИИ для обеспечения ответственного и надежного внедрения;
  • Совершенствование программы управления данными агентства;
  • Развитие кадрового потенциала в области ИИ через стратегический найм и повышение квалификации действующих сотрудников;
  • Выделение ресурсов для интеграции ИИ-инструментов в ИТ-инфраструктуру.

Комиссии также необходимо инвестировать в базовые инструменты, включая сервисы генеративного ИИ, интегрируемые с существующими приложениями и системой поиска документов ADAMS (Agencywide Documents Access and Management System).

Далее читайте ниже, в Подробнее.

Анализ пробелов регулирования

Программа NRC по искусственному интеллекту была разработана с учетом отчета Юго-западного исследовательского института (SWRI) под названием «Оценка пробелов нормативно-правовой базы для применения искусственного интеллекта в ядерной отрасли» (Regulatory Framework Gap Assessment For The Use Of Artificial Intelligence In Nuclear Applications).

В ходе проведения анализа регуляторных пробелов в сфере ИИ (AIRGA) SWRI использовал руководства по регулированию (Regulatory Guides, RGs), которые, по его оценке, «зачастую более детализированы, чем нормативные акты». Анализ начался с проверки наличия в этих руководствах потенциальных пробелов или положений, не соответствующих применению ИИ. После выявления таких пробелов исследование перешло к анализу нормативных документов NRC на предмет возможных противоречий с использованием ИИ.

Для каждого выявленного регуляторного пробела анализ давал ответы на три ключевых вопроса:

  • Возможно ли применение технологий ИИ в рамках действующих руководств?
  • Достаточно ли гибки эти руководства, чтобы допустить использование ИИ?
  • Содержат ли они достаточные указания для оценки применения ИИ?
  • Анализ выявил 71 руководство (RG) с потенциальными пробелами, которые были классифицированы на восемь категорий:

Пробел 1: Подразумеваемые ручные операции

Данная категория включает формулировки в руководствах, предполагающие выполнение действий человеком-оператором. В текстах RG явно или неявно упоминаются действия, выполняемые операторами и техническим персоналом. Технологии искусственного интеллекта предлагают альтернативные решения для автоматизации таких операций, что может вступать в противоречие с существующими положениями руководств.

Пробел 2: Специальные вычисления

Методы ИИ могут применяться для выполнения специальных вычислений, особенно при наличии баз данных, пригодных для машинного обучения. Однако текущие руководства содержат недостаточно четкие указания для оценки вычислений, выполняемых с использованием технологий искусственного интеллекта.

Пробел 3: Предэксплуатационные и начальные испытания

Руководства по предэксплуатационным и начальным испытаниям предусматривают тестирование конкретных систем перед вводом в эксплуатацию. В случае применения ИИ-систем в системах безопасности потребуется их полномасштабное тестирование, включая проверку на устойчивость к программным сбоям и отказоустойчивость конструкции, с учетом специфических рисков. Для ИИ-систем могут потребоваться дополнительные предэксплуатационные испытания, дополняющие анализ критичности, рисков, опасностей и требований безопасности. Независимо от применения ИИ-систем в системах безопасности или вспомогательных системах, необходимо проводить их всестороннее тестирование с точки зрения кибербезопасности.

Пробел 4: Обеспечение приемлемых условий при автономной работе

Отдельные руководства описывают допустимые методы поддержания приемлемых условий в реакторных залах (нормальный и аварийный режимы), включая низкий уровень радиации, чистоту воздуха и достаточное содержание кислорода. Хотя существующие методы в целом обеспечивают и защиту критического оборудования, потенциальное использование ИИ-систем для реализации различных уровней автономности (вплоть до полной) может потребовать пересмотра рекомендаций по поддержанию условий с акцентом на защиту оборудования.

Пробел 5: Периодические испытания, мониторинг и отчетность

Данная категория схожа с проблемой ручных операций, рассмотренной в Пробеле 1, но специфически касается периодических испытаний, мониторинга и технического надзора, требующих участия персонала. Это категория с наибольшим количеством затронутых руководств (RG).

Пробел 6: Программное обеспечение для систем безопасности

Существующие руководства по разработке, контролю и закупке ПО для систем безопасности в целом применимы и к ИИ-решениям, однако могут потребовать дополнительных уточняющих указаний для полного соответствия.

Пробел 7: Поддержка радиационной безопасности

Коммерческие интересы могут стимулировать применение крупных языковых моделей (LLM) и других ИИ-технологий для автоматизации задач, традиционно выполняемых специалистами по радиационной безопасности. Цифровые ассистенты способны отслеживать изменения федеральных и региональных нормативов, управлять программами мониторинга, генерировать рекомендации и составлять отчеты. Однако текущие руководства предполагают, что определенные операции должны выполняться исключительно сертифицированными специалистами, что соответствует базовым требованиям NRC.

Пробел 8: Подготовка персонала и инженерия человеческого фактора

В случае успешного внедрения ИИ-систем на атомных электростанциях может измениться роль операторов. В подобных условиях остается неясным, следует ли обновлять программы обучения, оставив в них только системы управления, контролируемые человеком, а также необходимо ли оснащать ИИ-системы переключателями для передачи управления операторам в особых ситуациях. Может потребоваться пересмотр содержания программ подготовки с учетом функций и действий, выполняемых ИИ-системами.

Основные потенциальные противоречия между нормативными требованиями и применением технологий ИИ связаны с положениями, прямо или косвенно предполагающими выполнение действий человеком, тогда как эти действия могут быть выполнены ИИ-системами. При этом большинство нормативных требований не конкретизируют роль человека, а лишь предписывают необходимость выполнения определенных действий.

Аналогичным образом, действующие нормативные требования обычно не регламентируют конкретные методы выполнения расчетов, что допускает использование технологий искусственного интеллекта, за исключением случаев моделирования систем аварийного охлаждения активной зоны ядерных реакторов и моделей трещиностойкости. Для указанных случаев нормативы предписывают применение физически обоснованных моделей, удовлетворяющих специальным критериям.

Специалисты Юго-Западного исследовательского института (SWRI) отмечают, что вместо явного включения положений об ИИ в существующие руководства для устранения выявленных пробелов, более целесообразной может быть разработка новых руководящих документов, охватывающих сквозные вопросы применения ИИ-технологий.

Вместе с тем отмечается, что существующие руководящие документы и стандарты разработки программного обеспечения, возможно, потребуется расширить, чтобы учесть особенности ИИ-систем. Например, машинное обучение требует значительных объемов данных, что порождает вопросы достаточности, качества и репрезентативности данных для различных состояний системы. Специфика технологий ИИ также актуализирует проблемы, связанные с систематическим тестированием, уровнем документирования процедур верификации, валидации и мероприятий по обеспечению надежности ИИ-систем. Существует вероятность аномальных выводов ИИ (иногда называемых "галлюцинациями"). Поэтому в отказоустойчивую архитектуру необходимо закладывать: активное обнаружение случаев, когда входные данные существенно отличаются от использованных при обучении модели, выявление аномальных результатов, а также механизмы коррекции ошибок, предотвращения их распространения и остановки системы.

Дальнейшие шаги

Поскольку технологии искусственного интеллекта стали широко доступны в коммерческом и открытом программном обеспечении, необходимы методические рекомендации по оценке вычислений, выполняемых с их применением, а также по требуемому уровню сопроводительной документации. Достоверность результатов зависит от качества данных и наличия в них устойчивых закономерностей, которые система ИИ может выявить и обобщить. Стандартный подход в машинном обучении (МО) предполагает выделение отдельного набора данных для верификации, при этом важно, чтобы ошибка предсказания на верификационных данных была сопоставима с ошибкой на обучающей выборке. Необходимы рекомендации от специалистов по ИИ относительно дополнительных систематических методов и анализа данных, которые повысят надежность прогнозов; эти принципы могут быть зафиксированы в общих руководящих документах.

Несмотря на растущий интерес к разработке стандартов, регулирующих создание, внедрение и применение систем ИИ, в настоящее время не существует общепринятых или универсально применяемых норм. Существующие стандарты обычно охватывают такие аспекты, как этика, безопасность и прозрачность. Их цель — обеспечить единую основу для разработчиков, пользователей и регуляторов, позволяющую оценивать и сравнивать производительность и надежность ИИ-систем. Однако из этих стандартов сложно вывести конкретные практические рекомендации.

С момента публикации Стратегического плана в прошлом году Комиссия продолжает реализацию пяти ключевых целей. В частности, в рамках расширения партнерств в области ИИ в сентябре прошлого года совместно с Канадской комиссией по ядерной безопасности и Управлением по ядерному регулированию Великобритании был опубликован документ "Принципы использования ИИ". В данном руководстве изложены основополагающие принципы применения технологий искусственного интеллекта на объектах ядерной инфраструктуры и при работе с ядерными материалами.

В течение следующего года Комиссия планирует активизировать работу по направлению ИИ посредством ряда инициатив, включая взаимодействие с инспекционным сообществом, коммуникацию с отраслевыми стейкхолдерами и дальнейшее развитие нормативной базы. В планах Комиссии по ядерному регулированию (NRC) на предстоящий период - публикация стратегии по выявлению и устранению барьеров для внедрения ИИ, повышение зрелости процессов работы с ИИ, расширение программы обучения сотрудников и подрядчиков по вопросам генеративного ИИ, а также разработка правил использования инструментов генеративного ИИ.