Лента новостей

17 апреля 2025 г.
Школьный буллинг шагнул вправо
СМИ: Руководство учебного заведения заявило в полицию о телеграм-канале с ультранационалистическими постами
17 апреля 2025 г.
Служители Фемиды продолжают экономить на гуманизме
СМИ: Судьи не отпускают больных заключенных, чтобы потом не понести ответственность
16 апреля 2025 г.
Адвокаты предлагают не сажать детей по-быстрому
СМИ: Криминализация несовершеннолетних через интернет требует иных правоохранительных подходов

Мнения

Елена Бондаренко
18 апреля 2025 г.
«ПрофПлатформа: Адвокаты & Эксперты»
О совместном проекте Комиссии по молодежной политике Адвокатской палаты Новосибирской области и АНО «Институт экспертных исследований»

Интервью

Следующей цивилизацией будет цивилизация права
16 апреля 2025 г.
Виктор Буробин
Следующей цивилизацией будет цивилизация права
В 2025 году планируется открытие первой бесплатной электронной юридической библиотеки «ЮСТЕКА»

В область правосудия ИИ должен зайти в последнюю очередь – ФПА РФ

27 марта 2025 г. 14:59

СМИ: Елена Авакян предостерегла пользователей новых технологий от ошибок


25 и 26 марта проходит XII Московский инновационный юридический форум. Мероприятие организовано Московским государственным юридическим университетом имени О.Е. Кутафина (МГЮА) при участии Правительства Москвы и Ассоциации юристов России. На площадке форума выступила вице-президент Федеральной палаты адвокатов Российской Федерации Елена Авакян. По ее мнению, внедрение искусственного интеллекта в судопроизводство необходимо производить предельно аккуратно и только после того, как технологию испытают в других менее критичных к ошибкам сферах.

«Я считаю себя человеком очень компьютеропогруженным, некоторые говорят, homo computicus. Но, даже будучи таким (человеком – прим.), я полагаю, что в область правосудия искусственный интеллект должен зайти в последнюю очередь, когда мы уже разберемся, с чем мы все-таки имеем дело. То есть на самом деле внедрение технологии искусственного интеллекта как аналитического аппарата, внедрение технологии искусственного интеллекта как технологии, помогающей анализировать данные, анализировать доказательства, анализировать большие объемы данных, проводить экспертизы, – да. Но как метода, принимающего решения, как нечто, что будет замещать человеческое судопроизводство, я всегда буду голосовать против», – отметила Елена Авакян.

По ее словам, внедрение современных технологий лишает человечество права выносить суждение о себе самом, что приводит к проигрышу видовой конкуренции. В связи с этим применение ИИ должно быть аккуратным.

Опыт Китая

Вице-президент ФПА РФ напомнила, что Китай уже четвертый год применяет систему «умный суд», которая, по сути, является электронным помощником судьи. 

«Да, они действительно очень сильно разгрузили суды. Да, действительно сегодня несколько тысяч дел в день рассматривается с помощью технологии искусственного интеллекта. И они действительно дали возможность, по сути, на первой инстанции рассматривать дела технологически, а уже на этапах обжалования, соответственно, подключать человека к рассмотрению этого вида споров. Получили облегчение для судей? Наверное, да. Получили ли уверенность у общества, что то, что делается, делается правильно? Спорный вопрос», – заметила вице-президент ФПА РФ. 

Она также отметила, что получить объективный ответ на этот вопрос можно только с помощью социологических исследований, а их сегодня тоже проводят с помощью ИИ.

Фейковая информация

Говоря об использовании ИИ в образовании, Елена Авакян призвала студентов перепроверять то, какую информацию они получают на введенный запрос.

«Если он вам дал ссылку, она покрасилась синим и вы уверены, что под этой ссылкой есть документ, не поленитесь его открыть. Вполне возможно, что этот документ сгенерирован искусственным интеллектом специально, чтобы оправдать отсутствие у него информации о действительной ссылке. К сожалению, сегодня он уже умеет и это», – добавила Елена Авакян.

Спикер также указала на необходимость внимательного отношения к ответам ИИ в адвокатской деятельности. Она привела в пример прецедент с американским адвокатом, который не удостоверился в корректности подготовленных искусственным интеллектом документов и впоследствии лишился своего статуса из-за неуважения к суду.

Технология ИИ требует глобального пересмотра и человеческого осмысления, которое должно привести к тому, что никакая программа не выявит признаки генерации, добавила Елена Авакян.

Источник – РАПСИ.

Поделиться