Лента новостей

15 мая 2024 г.
Началась подготовка к осенней конференции, посвященной рискам адвокатов и консультантов
В ФПА подвели итоги VIII конференции «Юридический бизнес России 2024»
15 мая 2024 г.
Как минимизировать риски налогоплательщика
Адвокатам рассказали о налоговых последствиях заключения договоров в практике договорной работы
15 мая 2024 г.
Проблемы квалификации
Адвокатам рассказали о дискуссионных вопросах квалификации форм и видов соучастия

Мнения

Михаил Толчеев
15 мая 2024 г.
«Заморозки» остаются в прошлом
В развитии Комплексной информационной системы адвокатуры России начался новый этап

Интервью

«Жизнь продолжается, несмотря ни на что: люди женятся, делят имущество»
13 мая 2024 г.
Михаил Толчеев
«Жизнь продолжается, несмотря ни на что: люди женятся, делят имущество»
Первый вице-президент ФПА о том, как живут и работают адвокаты в новых регионах

Ключевые вопросы правового регулирования и развития ИИ в ближайшей перспективе

6 июля 2023 г. 10:54

Вице-президент ФПА РФ Елена Авакян выступила на заседании секции «Искусственный интеллект» Совета по развитию цифровой экономики при Совете Федерации


Заседание проходило в смешанном формате. На нем обсуждался вопрос изменения Национальной стратегии в сфере искусственного интеллекта до 2030 г., утвержденной Указом Президента РФ от 10 октября 2019 г. № 490. Вице-президент ФПА РФ Елена Авакян в своем выступлении затронула четыре важнейших аспекта, связанных с правовым регулированием использования искусственного интеллекта (далее – ИИ): применение ИИ в судопроизводстве и общественный контроль над этим процессом, внедрение ИИ только в тех сферах деятельности, где при работе с данными невозможно обойтись естественным интеллектом, распространение фейков и дипфейков и создание механизма, позволяющего их различать, а также информированность населения при взаимодействии с ИИ.

В заседании секции «Искусственный интеллект» Совета по развитию цифровой экономики при Совете Федерации, в частности, приняли участие руководитель секции – управляющий директор – начальник Центра регулирования ИИ ПАО Сбербанк Андрей Незнамов, куратор секции – член Комитета Совета Федерации по конституционному законодательству и государственному строительству Артем Шейкин, директор Департамента развития цифровой экономики Министерства экономического развития РФ Владимир Волошин, начальник отдела Департамента стратегического развития и инноваций Министерства экономического развития РФ Никита Якунов, представители Ассоциации больших данных, а также крупнейших компаний, работающих с большими данными.

На заседании обсуждались предложения по обновлению Национальной стратегии в сфере ИИ до 2030 г. В частности, на 2024–2026 гг. предложены следующие задачи: закрепить режим нормативного благоприятствования развитию ИИ и дать прямые разъяснения на самые распространенные нормативные запросы; завершить работы по снятию точечных нормативных барьеров: правила экспорта ИИ, корректировка режима запуска БАС и контрольного просмотра, правила работы беспилотной сельскохозяйственной техники и др.; сформировать гибридные правила регулирования (закон + этика) по наиболее острым вопросам с учетом реальных конкретных кейсов: дипфейки и генеративные нейросети, массовое видеонаблюдение, ИИ в образовании и т.д.; утвердить и ежегодно обновлять индекс комфортности регулирования ИИ; сформировать механизм оценки рисков систем ИИ для быстрого и безопасного внедрения систем ИИ во всех отраслях.

Вице-президент ФПА РФ Елена Авакян в своем выступлении затронула четыре основных аспекта, связанных с правовым регулированием использования ИИ.

Первый из них касался применения ИИ в судопроизводстве и общественного контроля над этим процессом. Елена Авакян подчеркнула, что применение ИИ в судопроизводстве возможно при соблюдении двух основных условий. Первое условие – обеспечение входного общественного контроля над алгоритмом обучения и массивом данных, на котором обучается ИИ. Второе условие – элемент ИИ «Электронный помощник судьи» должен быть открыт обеим противоборствующим сторонам процесса, чтобы они имели возможность в любой момент задать вопрос ИИ, загрузить в него свои документы и увидеть то решение, которое ИИ предложит суду. Это позволит каждой стороне возражать не только оппоненту, но и против того решения, которое сформировано. Как полагает Елена Авакян, такая предмедиация существенно снизит нагрузку на судебную систему, поскольку стороны могут согласиться с тем решением, которое предложит ИИ, и таким образом возможный спор разрешится, еще не начавшись.

Второй аспект, на котором акцентировала внимание Елена Авакян, – сбережение усилий, т.е. внедрение ИИ только в тех сферах деятельности, где при обработке данных невозможно обойтись естественным интеллектом. Таким образом, отметила Елена Авакян, ИИ не должен применяться там, где достаточно обычных интеллектуальных усилий человека. Поэтому применение ИИ в правосудии должно четко дозироваться.

Третий аспект – распространение фейков вообще и дипфейков – в частности. По словам Елены Авакян, вопрос не только в том, что сегодня очень сильно неравенство между теми доказательствами, которые предоставляют стороны уголовного процесса, и толкованием этих доказательств с точки зрения презумпции достоверности, но и в том, что все чаще представляются видеодоказательства, например, по уголовным делам о распространении порочащей информации, в которых имеются дипфейки. Создание механизмов, которые позволяли бы отличить фейк от «нефейка», – одна из основополагающих задач, которая сегодня очень серьезно стоит перед уголовным правом.

Четвертый аспект, который затронула в своем выступлении Елена Авакян, – обеспечение информированности населения при взаимодействии с ИИ. Речь идет о том, что, взаимодействуя с ИИ, люди должны понимать, что взаимодействуют именно с ИИ и иметь возможность отказаться от такого взаимодействия.

Важным и актуальным вопросом в ходе обсуждения также стал вопрос об анонимизации данных. Каждый из участников дискуссии отметил необходимость перевода вопросов анонимизации данных из серой зоны в белую. Как отметила Елена Авакян, с данной проблемой приходится сталкиваться и ФПА РФ при внедрении КИС АР, в частности в ситуациях, когда нужен массив данных КИС АР для тестового стенда, но, поскольку анонимизация данных не имеет однозначного толкования, невозможно создавать приложения, которые анонимизировали бы данные и позволяли анализировать их в дальнейшем как анонимные. Еще более остро данный вопрос встает в крупных корпорациях, постоянно работающих с данными, заметила вице-президент ФПА РФ.

Фото: photo.senatinform.ru

Поделиться