Эксперты СПбГУ: в России стоит развивать специальное регулирование ИИ
Юридическая группа Центра искусственного интеллекта и науки о данных Санкт‑Петербургского государственного университета подготовила комплексный отчет по нормативному ландшафту в области промышленного ИИ. Эксперты СПбГУ проанализировали мировой опыт регулирования и контроля за технологиями искусственного интеллекта и рекомендуют развивать специальное регулирование в этой области для эффективного использования возможностей ИИ и содействия научно‑технологическому и промышленному развитию России.
Промышленный искусственный интеллект (или искусственный интеллект вещей) в последние годы получил активное распространение во всем мире. Он включает в себя различные приложения, такие как умные дома, сельское хозяйство и интеллектуальные фабрики, которые привносят инновации и бесконечные возможности ИИ в различные сферы жизни человека.
Отчет по нормативному ландшафту в области промышленного ИИ
При этом специальное правовое регулирование и юридические нормы в сфере применения возможностей искусственного интеллекта на данный момент развиты недостаточно. Фактически в России и странах БРИКС отношения по поводу разработки и применения ИИ являются предметом общих правовых норм. По мнению экспертов Санкт‑Петербургского университета, это не удивительно: законодательство преимущественно технологически нейтрально, а системы ИИ и связанные с ними явления уже давно рассматриваются как результаты интеллектуальной деятельности, информационные системы и наборы данных различных правовых режимов.
Юристы Санкт‑Петербургского государственного университета ведут регулярную экспертную работу по разработке юридических инициатив. Часто эти инициативы выходят на федеральный уровень. Так, недавно они предложили признать за семьей юридические права и обязанности, занимаются разработкой нормативно-правовых актов для БРИКС, подготовкой словаря нормативных правовых актов и многого другого.
Кроме того, Санкт‑Петербургский университет является одним из ведущих вузов России, обучающих специалистов в области искусственного интеллекта, по версии Альянса в сфере искусственного интеллекта. В 2019 году президент Российской Федерации утвердил Национальную стратегию развития искусственного интеллекта до 2030 года. На пленарном заседании VIII Международной конференции по искусственному интеллекту и машинному обучению Artificial Intelligence Journey 2023 Владимир Владимирович Путин призвал ведущие вузы страны готовить специалистов в сфере искусственного интеллекта.
Однако потребность в конкретизации отдельных норм и развитии специального регулирования все равно существует, поскольку развитие искусственного интеллекта существенным образом меняет не только технологический, но и социально‑политический и культурный ландшафт современного общества. По мнению заведующего кафедрой теории и истории государства и права СПбГУ и руководителя юридической группы Центра искусственного интеллекта и науки о данных СПбГУ Владислава Архипова, в настоящее время технологии ИИ регулируются в первую очередь положениями права интеллектуальной собственности и информационного права.
Особое значение и актуальность сейчас получают вопросы, связанные с пределами использования датасетов для машинного обучения. В этом и в ряде других направлений целесообразно развивать специальное регулирование.
Во многих случаях, в зависимости от предмета отношений, сохранение статус‑кво оправдано и целесообразно (как, например, в вопросах защиты авторского права). Однако в некоторых случаях особенности технологий ИИ располагают к разработке специального регулирования.
Заведующий кафедрой теории и истории государства и права СПбГУ и руководитель юридической группы Центра искусственного интеллекта и науки о данных СПбГУ Владислав Архипов
«Пока примеров собственно специальных правовых норм, которые бы целенаправленно создавались для регулирования на высоком уровне отношений в области ИИ, в актуальных для нас юрисдикциях мало, и они недостаточны. Чтобы регламентировать широкое использование искусственного интеллекта и сделать его эффективным, правовая база должна быть гармонизирована на международном уровне, например, стать общей для ЕАЭС или БРИКС, связанных рядом деловых отношений», — объяснил Владислав Архипов.
Известны отдельные примеры зарубежных нормативных документов, которые предполагают достаточно глубокий контроль и риск‑ориентированный подход, а также внедрение ряда дополнительных принципов и правил общего характера, связанных главным образом с запретом отдельных технологий, а также с условиями, при которых можно разрабатывать, внедрять и использовать иные технологии.
Итогом работы специалистов Санкт‑Петербургского университета стала подготовка аналитической базы для правовых условий и рисков, возникающих в связи с применением технологий промышленного искусственного интеллекта.
Как отметил профессор СПбГУ Владислав Архипов, помимо иных источников, в России есть ключевой акт стратегического планирования — Национальная стратегия развития искусственного интеллекта на период до 2030 года (утверждена Указом Президента Российской Федерации от 10.10.2019 № 490).
Кроме того, есть нормативный акт, прямо определяющий в качестве своего предмета создание необходимых условий для разработки и внедрения технологий искусственного интеллекта, — это Федеральный закон от 24.05.2020 № 123‑ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных"». Документ предполагает пятилетний экспериментальный правовой режим для участников рынка.
«Мы считаем целесообразным регулирование технологии ИИ в Российской Федерации на уровне федерального законодательства и с учетом актуальной системы международных отношений, причем с использованием принципа технологической нейтральности, хотя его значение и наполнение подлежат регулярной проверке и пересмотру», — отметил Владислав Архипов.