В марте текущего года в ходе вебинара «Эксперт БФТ», посвященного обзору актуальных новаций законодательства в сфере цифровизации, экспертами рассмотрены вопросы, связанные с использованием технологий искусственного интеллекта ИИ (видеозапись см. здесь).
В ходе вебинара слушателями был задан ряд вопросов по направлениям, которые, на наш взгляд, могут быть полезны широкой аудитории. Ниже приведено разъяснение по одному из поступивших вопросов.
ВОПРОС:
Каким образом предполагается повышать уровень доверия к ИИ?
Добрый день, уважаемая Татьяна!
Рассмотрев Ваш вопрос и руководствуясь нормами действующего законодательства, разъясняем следующее.
Повышение доверия к технологиям искусственного интеллекта (ИИ) является одной из важных задач, решаемых на государственном уровне в рамках обеспечения ускоренного технологического развития, внедрения технологий искусственного интеллекта во всех отраслях экономики и социальной сферы. При этом разработка и реализация соответствующих мер осуществляется по нескольким направлениям. Во-первых, первостепенное значение имеет прозрачность и объяснимость технологий ИИ. Разработчики систем ИИ должны быть в состоянии объяснить решения и процессы принятия решений понятным для пользователей образом. Общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта определены Кодексом этики в сфере искусственного интеллекта (далее - Кодекс). Кодекс совместно разработан группой ведущих технологических компаний для совместного развития их компетенций и ускоренного внедрения искусственного интеллекта в образовании, научных исследованиях и в практической деятельности бизнеса. Указанные аспекты также раскрыты в рекомендациях Комиссии по реализации кодекса этики в сфере ИИ, которые предназначены для широкого круга разработчиков алгоритмов искусственного интеллекта, а также информационных систем и цифровых сервисов на их основе.
В марте текущего года на «Дне ИИ», проведенном в рамках международной выставки «Россия» (13.03.2024, ВДНХ), крупнейшими компаниями-разработчиками в присутствии заместителя Председателя Правительства России Дмитрия Чернышенко подписана Декларация об ответственной разработке и использовании сервисов на основе генеративного ИИ. Документ охватывает разные аспекты осознанного отношения к разработкам на основе ИИ, в т.ч. отражает принципы безопасности и прозрачности, принятия мер для предотвращения злоупотреблений и создания недостоверной информации, а также просвещения пользователей о возможностях новых технологий. Полный текст декларации размещен на сайте Альянса в сфере искусственного интеллекта. Во-вторых, безопасность и надежность систем, и, соответственно, основания для повышения уровня доверия к ИИ, гарантирует наличие четких регулятивных рамок и стандартов для использования технологий ИИ, включая соответствующее законодательство, стандартизацию и сертификацию.
Цели, основные задачи и принципы развития искусственного интеллекта в Российской Федерации, а также меры, направленные на его использование, определены Национальной стратегией развития искусственного интеллекта, которая утверждена Указом Президента России от 10.10.2019 № 490. В числе приоритетных задач Национальной стратегии – меры по предупреждению и минимизации рисков возникновения негативных последствий использования технологий ИИ, популяризация технологий искусственного интеллекта и повышение доверия граждан к ним.
В частности, в рамках этой работы на федеральном уровне:
-
ведется работа по обеспечению правового регулирования ответственности за применение технологий искусственного интеллекта (см., в частности, законопроект № 512628-8 «О внесении изменений в Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации»);
-
осуществляется разработка предварительных национальных стандартов, по итогам апробации которых утверждаются соответствующие ГОСТы. Одним из примеров отрабатываемого в настоящее время документа является ПНСТ 840-2023 «Искусственный интеллект. Обзор этических и общественных аспектов»;
-
рассматривается возможность внедрения системы сертификации технологий ИИ, а также предоставления господдержки компаниям, внедряющим сертифицированные решения (вопрос освещен в докладе главы Минэкономразвития в ходе «Дня ИИ» 13.03.2024 на выставке-форуме «Россия»).
Во-третьих, следует учитывать, одним из этапов разработки, является тщательный аудит и проверка систем ИИ независимыми экспертами. Это позволяет убедиться в точности, надежности и соответствии установленным стандартам безопасности, внедряемых с использованием ИИ решений. Регулярное тестирование и постоянный аудит взаимодействия пользователей и систем также способствуют внедрению доверенных технологий искусственного интеллекта.
В-четвертых, формированию позитивного отношения к этой технологии способствует демонстрация реальных преимуществ внедрения ИИ для общества, а также распространение успешных решений, апробированных на практике. В настоящее время такая практика находит все более широкое применение, что отмечалось как положительный фактор в ходе вышеупомянутого «Дня ИИ».
Резюме
С учетом изложенного, в настоящее время задача по повышению уровня доверия к технологиям искусственного интеллекта уже решается на практике как непосредственно разработчиками технологий ИИ, так и органами власти.
Это обеспечивается, как за счет обеспечения прозрачности и объяснимости алгоритмов применяемых технологий ИИ, регулярного тестирования и аудита взаимодействия пользователей с системами ИИ, так и путем законодательного регулирования и стандартизации использования технологий ИИ, а также распространения положительной практики применения соответствующих решений.
Ответ подготовили:
- Краснер Алексей, руководитель направления Департамента методологии, анализа и консалтинга БФТ-Холдинга
- Елена Зенцова, руководитель направления Департамента методологии, анализа и консалтинга БФТ-Холдинга