Лента новостей
Большой учебный день
Проанализированы 130 судебных актов
«Адвокаты по всей стране демонстрируют высокий уровень профессиональной ответственности и вовлеченности в защиту семьи»
Мнения
Полезный завтрак
Интервью
Созданный прецедент может развернуть судебную практику на 180 градусов
Законопроект вызывает много вопросов
Искусственный интеллект получит государственное регулирование
Минцифры подготовило проект закона, направленного на создание правовых условий для ускоренного развития и внедрения технологий искусственного интеллекта, обеспечение безопасности личности, общества и государства.
В ФПА РФ обратили внимание, что законопроект вводит иерархию моделей ИИ, требуя разработки исключительно гражданами РФ без использования иностранных компонентов, что вступает в прямое противоречие с инженерной реальностью.
Как информирует «АГ», Минцифры России опубликовало для общественного обсуждения проект закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации и о внесении изменений в отдельные законодательные акты Российской Федерации». Законопроект разработан в целях создания правовых условий для ускоренного развития и внедрения технологий искусственного интеллекта, обеспечение безопасности личности, общества и государства, государственного технологического суверенитета при использовании технологий ИИ.
Отмечается, что действие закона будет распространяться на физических и юридических лиц, осуществляющих деятельность в области разработки, применения, внедрения технологий искусственного интеллекта в России. При этом его действие не будет распространяться на отношения, возникающие в связи с применением ИИ для целей обороны и безопасности государства и охраны правопорядка, включая антитеррористическую защищенность, целей предотвращения чрезвычайных ситуаций природного и техногенного характера, если иное не предусмотрено законами, регулирующими указанные отношения или актами президента.
Проект закона определяет основные понятия, такие как искусственный интеллект, система ИИ, сервис ИИ, технологии ИИ, наборы данных, модель ИИ, обучение модели ИИ, разработчик модели, оператор системы ИИ, владелец сервиса ИИ, пользователь сервиса, большие фундаментальные модели, доверенные модели ИИ, эксплуатация уязвимостей человека.
Так, под искусственным интеллектом понимается комплекс технологических решений, позволяющий имитировать когнитивные функции человека, включая самообучение и поиск решений без заранее заданного алгоритма, и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Под разработчиком модели искусственного интеллекта подразумевается физическое или юридическое лицо, или индивидуальный предприниматель, осуществляющие исследования, проектирование, разработку, обучение, тестирование или модификацию, модели ИИ. Оператор ИИ – гражданин или юридическое лицо, осуществляющие деятельность по эксплуатации системы искусственного интеллекта, в том числе по обработке информации, содержащейся в ее базах данных. Владелец сервиса ИИ – лицо, обладающее соответствующими правами на сервис искусственного интеллекта, включая исключительные или иные права на такую систему, если иное не установлено договором или законом.
Законопроектом закрепляются общие принципы регулирования отношений в сфере применения технологий искусственного интеллекта. Так, среди из них – учет и уважение традиционных российских духовно-нравственных ценностей, под которым понимается обеспечение разработки, внедрения и применения технологий ИИ на основе таких ценностей, как жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу, высокие нравственные идеалы, крепкая семья, созидательный труд, приоритет духовного над материальным, гуманизм, милосердие, справедливость, коллективизм, взаимопомощь и взаимоуважение, историческая память и преемственность поколений, единство народов России.
Указывается, что правовое регулирование отношений, возникающих в связи с разработкой, внедрением, использованием ИИ, осуществляется с учетом необходимости оценки в том числе назначения технологий ИИ, вероятности рисков причинения вреда и масштабов причиняемого ущерба в связи с применением ИИ, а также степенью автономности систем искусственного интеллекта, реализующих технологии ИИ. Кроме того, учитываются степень влияния систем искусственного интеллекта, реализующих технологии ИИ, на принятие юридически значимых действий, а также категория обрабатываемой информации (общедоступная информация или информация ограниченного доступа или иная информация).
Согласно законопроекту субъектами отношений в сфере ИИ будут являться разработчик модели искусственного интеллекта, оператор системы ИИ, владелец сервиса, его пользователь и органы государственной власти в пределах их полномочий.
Проект закона допускает использование ИИ в государственных информационных системах и на значимых объектах критической информационной инфраструктуры Российской Федерации, но только включенных в реестр доверенных моделей ИИ, критерии для которого разработает правительство.
Предусматривается, что граждане должны быть проинформированы об использовании ИИ и иметь возможность получить услугу без использования данной технологии. Решения и действия госорганов, принятые с использованием ИИ, могут быть обжалованы в досудебном порядке. Кроме того, гражданин имеет право на компенсацию вреда, причиненного неправомерным использованием технологий ИИ.
Отмечается, что разработчик модели ИИ, оператор системы ИИ, владелец сервиса будут нести ответственность в соответствии с законодательством РФ за результат, полученный с использованием искусственного интеллекта, нарушающий законодательство РФ, при условии, что указанные лица заведомо знали или должны были знать о возможности получения такого результата, если в ходе следственных действий не будет доказано обратное. Пользователь будет нести ответственность за использование результата, полученного с помощью искусственного интеллекта, нарушающего законодательство РФ, когда такой результат является следствием его умышленных действий либо несоблюдения им условий использования сервиса.
Указывается, что объекты интеллектуальной собственности, созданные путем применения сервисов ИИ, охраняются в порядке, предусмотренном ГК РФ. Исключительные права на указанные объекты определяются также согласно нормам ГК РФ. При этом объектами интеллектуальной деятельности признаются исключительно оригинальные творения, соответствующие критериям охраноспособности, установленным гражданским законодательством, независимо от того, были ли они созданы человеком или автоматизированной системой.
Предусматривается международное сотрудничество Российской Федерации в сфере применения технологий искусственного интеллекта. Также предусматривается, что в целях повышения доступности вычислительной инфраструктуры для развития технологий искусственного интеллекта правительство вправе утвердить перечень центров обработки данных (суперкомпьютеров), создание и эксплуатация которых осуществляются в соответствии со специальным регулированием.
Предполагается, что закон вступит в силу с 1 сентября 2027 г.
Советник ФПА РФ, руководитель цифровой трансформации адвокатуры России Елена Авакян заметила, что законопроект вводит иерархию моделей ИИ («суверенные», «национальные»), требуя разработки исключительно гражданами РФ без использования иностранных компонентов. «Это юридическое требование вступает в прямое противоречие с инженерной реальностью. Кроме того, требования сертификации, локализации данных и согласования нормативных актов кратно увеличивают издержки (compliance costs). Для стартапа или малого бизнеса прохождение ФСТЭК для “доверенной модели” – это непроходной финансовый барьер», – считает она.
Елена Авакян полагает, что российское государство, приняв законопроект, окажется бессильным перед ИИ-компаньонами, которые начнут манипулировать гражданами, особенно детьми и пожилыми. «В то время как Китай вводит обязанность “спасения” (перехват управления при суицидальных намерениях), российский закон хранит молчание. Государство не обеспечивает психологическую безопасность, ограничиваясь лишь проверкой происхождения кода», – указала она.
Советник ФПА РФ заметила, что ст. 13 законопроекта вводит понятие «творческий вклад» пользователя для признания его автором контента. «Это крайне субъективная категория, которая обрекает граждан на многолетние судебные споры. Является ли промпт “нарисуй красиво” творчеством? Закон на этот вопрос не отвечает. Статья 11 законопроекта закрепляет понятие об ответственности “соразмерно степени вины”, при отсутствии механизмов оценки такой вины создает ситуацию, где ни разработчик, ни пользователь не могут спрогнозировать юридические последствия галлюцинаций ИИ», – заключила Елена Авакян.
Марина Нагорная

