Популярные материалы
Не забывать, что за каждым делом – человеческая судьба
Созданный прецедент может развернуть судебную практику на 180 градусов
Адвокатская профессия дает юристу возможность раскрыть себя в полной мере
Уважать разные точки зрения и понимать друг друга
Мы передаем молодежи этическое сознание адвокатуры
Этические аспекты использования адвокатами инструментов ИИ: зарубежный опыт
О рекомендациях по использованию адвокатами инструментов генеративного искусственного интеллекта, которые содержатся в документах, принятых руководящими органами адвокатских сообществ разных стран
С появлением технологий на основе искусственного интеллекта (ИИ), способных автоматизировать рутинную юридическую работу, юридические исследования, проверку и анализ документов, а также прогнозную аналитику, юридическая профессия претерпевает колоссальные изменения. Среди наиболее значительных вкладов ИИ в юридическую практику можно выделить юридические исследования, проверку контрактов и иных документов и оценку рисков. Технологически поддерживаемая проверка (TAR) помогает адвокатам анализировать огромные объемы данных за гораздо меньшее время, чем требовалось ранее, с минимальным количеством ошибок и повышенной эффективностью. Исследовательские инструменты на основе ИИ облегчают обобщение правовых позиций, законодательства и прецедентного права, что позволяет адвокатам легко находить убедительные аргументы в условиях ограниченного времени.
Инновации в генеративном ИИ (GenAI) еще больше упростили юридические процедуры. Решения GenAI способны составлять контракты, юридические меморандумы и ответы на запросы предложений. Хотя проверка человеком неизбежна, время, затраченное на составление первоначальной версии, сокращается, и адвокаты могут сосредоточить свое время и внимание на более серьезных вопросах, требующих аналитического и стратегического мышления высокого уровня. Юридическая аналитика на основе ИИ позволяет адвокатам анализировать тенденции рассмотрения аналогичных дел, прогнозировать действия судей и стратегически планировать действия в ходе судебного разбирательства. Инструменты юридической аналитики на основе ИИ также могут анализировать прошлые судебные решения, действия судей и юрисдикционную предвзятость для выработки стратегических рекомендаций. Использование ИИ также улучшает электронное раскрытие информации, сокращая время и трудозатраты на просмотр десятков тысяч документов в поисках нужных доказательств. Машинные алгоритмы могут выявлять закономерности в данных, отмечать аномалии для рецензентов и предлагать материалы, связанные с делом, тем самым упрощая любую досудебную подготовку.
Однако, несмотря на свои преимущества, ИИ породил профессиональные и этические проблемы в юридической сфере и среди адвокатов. Адвокаты должны учитывать выявленные и возникающие риски, а также внедрять политику и практику, регулирующие использование ИИ в соответствии с профессиональными обязанностями. Данный факт, а также неизбежный рост использования генеративного ИИ на основе больших языковых моделей (LLM) в юридической практике не могли остаться без внимания профессионального адвокатского сообщества по всему миру. В 2024–2025 гг. в большинстве государств руководящими органами адвокатских сообществ были приняты документы, содержащие рекомендации по использованию адвокатами инструментов генеративного искусственного интеллекта. К таким документам можно отнести, к примеру, Официальное заключение Постоянного комитета по этике и профессиональной ответственности Американской ассоциации юристов (ABA) № 512 (июль 2024 г.) «Инструменты генеративного искусственного интеллекта»[1]; Заключение Экспертной группы по информационным технологиям Совета адвокатуры Англии и Уэльса «Вопросы, которые следует учитывать при использовании ChatGPT и программного обеспечения генеративного искусственного интеллекта на основе больших языковых моделей» от 30 января 2024 г. с изменениями от 25 ноября 2025 г.[2]; Практическое руководство Ассоциации юристов Канады «Этика искусственного интеллекта для адвокатов» 2025 г.[3]; Совместное заявление Юридического общества Нового Южного Уэльса, Совета по юридической практике Западной Австралии и Совета и Уполномоченного по юридическим услугам штата Виктория об использовании искусственного интеллекта в австралийской юридической практике от 6 декабря 2024 г.[4]; Практическое руководство по генеративному искусственному интеллекту от июля 2024 г. с изменениями от сентября 2024 г.[5] и Руководство по выбору инструментов ИИ[6] от июня 2025 г. Национального совета адвокатуры Франции (CNB); Рекомендации по использованию ИИ в юридических фирмах от декабря 2024 г. Федеральной палаты адвокатов Германии (BRAK)[7] и многие другие. Все указанные документы объединяет, во-первых, то, что они носят исключительно рекомендательный характер, а, во-вторых, то, что они направлены как на определение возможных рисков использования генеративного искусственного интеллекта адвокатами, так и на выработку возможной линии поведения при использовании ИИ, которая бы соответствовала профессиональным и этическим требованиям к адвокатской деятельности.
Среди рисков использования ИИ адвокатами чаще всего выделяются следующие.
Антропоморфизм: первый ключевой риск, присущий LLM, заключается в том, что они разрабатываются и продаются таким образом, чтобы создать впечатление, что пользователь взаимодействует с чем-то обладающим человеческими характеристиками. Один из механизмов, с помощью которого это достигается, заключается в использовании антропоморфного языка для описания происходящего. LLM (по крайней мере, на данном этапе их развития) не обладают человеческими характеристиками в каком-либо существенном смысле, они не понимают концепций, эмоций или причинно-следственных связей так, как это делают люди, и не обладают социальным или эмоциональным интеллектом или совестью.
Галлюцинирование: LLM склонны к «галлюцинациям» – термин, используемый для описания явления, когда результаты, генерируемые этими LLM, могут звучать очень правдоподобно, но либо фактически неверны, либо не имеют отношения к данному контексту.
Предвзятость в обучающих данных: еще один ключевой риск присущ способу «обучения» LLM. Тот факт, что обучающие данные для LLM общего назначения собираются из интернета, означает, что LLM неизбежно будут иметь предвзятость или укреплять стереотипы либо мировоззрение, которые присутствуют в обучающих данных. В настоящее время растет объем исследований о том, как ряд инструментов на основе ИИ содержат ненадлежащую предвзятость, основанную, например, на расе и поле.
Ошибки и конфиденциальные обучающие данные: ChatGPT и другие LLM могут использовать вводимые пользователями данные для дальнейшего развития и совершенствования системы. В результате все, что пользователь вводит в систему, может быть использовано для обучения программного обеспечения и может быть дословно повторено в будущих результатах. Это явно проблематично не только в том случае, если введенный в систему материал неверен, но и если он конфиденциален или подпадает под действие адвокатской тайны. Адвокатам важно полностью понимать, как любая модель, с которой они работают, использует вводимые данные и как задействовать соответствующие защитные механизмы.
Уязвимости в кибербезопасность: растущая интеграция программ LLM в области права в юридические технологические платформы создает новые векторы атак для киберпреступников. Адвокаты должны внедрять надежные меры кибербезопасности и помнить, что ИИ может использоваться для более изощренных фишинговых атак, мошенничества с использованием электронной почты (BEC) и других форм мошенничества. Тщательная проверка протоколов безопасности инструментов ИИ крайне важна.
Утрата критического мышления: инструменты ИИ должны оставаться помощниками, а не заменять принятие решений человеком.
Риск обеднения интеллектуального мышления: инструменты ИИ выбирают наиболее распространенные рассуждения, делая недоступными те, которые представляют мнение меньшинства. Этому моменту следует уделять особое внимание.
Среди рекомендаций для адвокатов можно выделить следующие.
1. Понимать принцип работы различных инструментов ИИ, уровень их безопасности и быть знакомым с применимой правовой базой (обязательства в отношении конфиденциальности, интеллектуальной собственности и авторского права); пройти специальное обучение этике использования генеративного ИИ для лучшего понимания рисков предвзятости, ограничений и этичного использования этих инструментов.
2. Использование ИИ не должно заменять человеческий опыт; следует избегать любого использования ИИ без критического анализа.
3. Проверять точность полученной информации.
4. Избегать внесения любых личных или конфиденциальных данных в незащищенный инструмент; в более общем плане – интересоваться суверенитетом используемых инструментов.
5. Информировать участников судебного процесса о правовых и этических рисках, связанных с внесением личных данных или документов, защищенных конфиденциальностью, в несуверенный и свободно доступный инструмент генеративного ИИ.
6. Использовать инструменты генеративного ИИ ответственно и рационально, чтобы ограничить их воздействие на окружающую среду.
7. Содействовать регулярному обмену мнениями между судами и коллегиями адвокатов для обеспечения общего понимания используемых инструментов.
8. Адвокаты, использующие ИИ для поддержки своей работы, должны гарантировать, что время и объем работы, за которые они выставляют счета клиентам, точно отражают юридическую работу, выполненную сотрудниками юридической фирмы для их клиента. Адвокаты, использующие ИИ, должны гарантировать, что это не приводит к неоправданному увеличению затрат для их клиента по сравнению с традиционными методами (например, из-за дополнительного времени, затраченного на проверку или исправление результатов).
Ассоциация юристов Канады предлагает следующие ключевые стандарты использования ИИ в канадской юридической практике.
Человеческая проверка («Правило участия человека»): адвокаты не должны полагаться на исследования, документы или анализ, созданные ИИ, без тщательной независимой проверки человеком. Результаты работы ИИ могут содержать ошибки, неточности или ложные юридические ссылки, что делает проверку необходимой.
Конфиденциальность и безопасность данных: адвокаты должны обеспечить соответствие инструментов ИИ обязательствам по защите конфиденциальности. Использование общедоступных, бесплатных или небезопасных платформ ИИ (например, общедоступного ChatGPT) для ввода конфиденциальной, коммерческой или защищенной адвокатской тайной информации о клиентах, как правило, считается неэтичным.
Информированное согласие клиента: адвокаты должны информировать клиентов, если для оказания юридических услуг используется генеративный ИИ.
Обязательство компетентности: адвокаты должны понимать возможности, ограничения и риски используемых ими инструментов ИИ.
Прозрачность для судов: в ряде юрисдикций, таких как Манитоба и Юкон, введены практические указания, требующие от адвокатов раскрывать информацию об использовании ИИ при подготовке судебных документов.
Профессиональная ответственность: лицензиаты (адвокаты и помощники адвокатов) несут полную ответственность за результаты своей работы независимо от того, использовался ли ИИ для их создания.
Таким образом, хотя технологии развиваются, использование ИИ адвокатами всегда должно соответствовать профессиональным требованиям, установленным юридическим сообществом. Задача адвокатов состоит в том, чтобы ответственно использовать постоянно развивающиеся инструменты ИИ, оставаясь при этом в профессиональном поле и соблюдая свои этические обязательства. Конечно же, ИИ не заменит адвокатов, но он дополнит их. Рутинная работа сократится, в то время как ценные человеческие навыки, такие как аналитическое мышление, рассудительность, эмпатия, ведение переговоров и убеждение в суде, станут более важными. В конечном итоге выиграют те адвокаты, которые будут рассматривать ИИ как младшего юриста по запросу – мощного, неутомимого, но все еще нуждающегося в надзоре и этической корректировке.
[1] AMERICAN BAR ASSOCIATION STANDING COMMITTEE ON ETHICS AND PROFESSIONAL RESPONSIBILITY. Formal Opinion 512, July 29, 2024 «Generative Artificial Intelligence Tools».
[2] The Bar Council Information Technology Panel. Considerations when using ChatGPT and generative artificial intelligence software based on large language models. Issued on: 30 January 2024. Last reviewed: 25 November 2025.
[3] Canadian Bar Association. Ethics of Artificial Intelligence for the Legal Practitioners. Practice Toolkit. 3. Guidelines Relating to Use. 2025 https://www.cba.org/resources/practice-tools/ethics-of-artificial-intelligence-for-the-legal-practitioner/3-guidelines-relating-to-use/.
[4] The Law Society of New South Wales, the Legal Practice Board of Western Australia and the Victorian Legal Services Board and Commissioner. Statement on the use of artificial intelligence in Australian legal practice. 6 December 2024 https://lsbc.vic.gov.au/sites/default/files/2024-12/Statement%20on%20the%20use%20of%20AI%20in%20Australian%20legal%20practice_2.pdf.
[5] Guide pratique de l’utilisation des outils d’intelligence artificielle générative, CNB, septembre 2024. https://encyclopedie.avocat.fr/GEIDEFile/CNB_GT_IntelligenceArtificielle_2024.pdf?Archive=132021395020&File=Telecharger_le_guide_ici&verif=480312480318473152480453469029450538470018470030488826469114.
[6] Grille de lecture des outils d’intelligence artificielle générative, CNB, juin 2025. https://encyclopedie.avocat.fr/GEIDEFile/CNB_GT_IntelligenceArtificielle_2024.pdf?Archive=132021395020&File=Telecharger_le_guide_ici&verif=480312480318473152480453469029450538470018470017488825480274.
[7] BRAK Leitfaden mit Hinweisen zum KI-Einsatz Stand 12.2024 https://www.brak.de/fileadmin/service/publikationen/Handlungshinweise/BRAK_Leitfaden_mit_Hinweisen_zum_KI-Einsatz_Stand_12_2024.pdf.





