![]() | Венская конвенция ООН о договорах международной купли-продажи товаров, 1980 г. — CISG |
Использование искусственного интеллекта адвокатами — позиция судов в штате Нью-ЙоркСоздано: 12.01.2026 | Время чтения: ~3 мин. Юристы не должны подвергаться общему запрету на использование инструментов искусственного интеллекта при подготовке процессуальных документов — к такому выводу пришел консультативный комитет судебной системы штата Нью-Йорк в своем ежегодном докладе, опубликованном в четверг. 08.01.2026. По мнению комитета, попытка полного запрета была бы не только практически неисполнимой, но и избыточной, поскольку она исключила бы многие законные и полезные способы применения технологий ИИ в юридической работе (смотри также: позиция суда о применении средств ИИ в делах без участия представителя). Комитет указал, что ИИ-инструменты могут использоваться без объявления о том, а потому формальный запрет не обеспечил бы реального соблюдения правил. Вместо этого предлагается сохранить общий подход, при котором судьи вправе устанавливать локальные процессуальные правила для своих залов заседаний, включая специальные требования к использованию ИИ при подготовке документов. Такой децентрализованный механизм, по мнению авторов доклада, позволяет учитывать специфику конкретных судов и категорий дел. Обязанность проверки и отсутствие требования раскрытияОтдельно подчеркивается, что раскрытие факта использования ИИ не должно становиться обязательным, если адвокат самостоятельно и добросовестно проверил результат работы инструмента и устранил возможные ошибки или так называемые галлюцинации. Консультативный комитет напомнил, что действующие процессуальные правила уже давно запрещают представление в суд заведомо ложных или фиктивных сведений, независимо от того, были ли они получены с помощью ИИ или иным способом. В то же время комитет признал, что массовое распространение генеративных инструментов и их активное использование как адвокатами, так и лицами без представительства требуют четких и единообразных разъяснений. Цель предлагаемых рекомендаций заключается не в создании новых обязанностей, а в адаптации уже существующих стандартов добросовестности и точности к контексту документов, подготовленных с использованием ИИ-технологий. Дисциплинарные риски и практика санкцийВыводы комитета были сделаны на фоне участившихся случаев дисциплинарного контроля за адвокатами в различных штатах США. В ряде дел использование ИИ вскрывалось после того, как судьи или процессуальные оппоненты обнаруживали ссылки на несуществующую судебную практику, сгенерированную алгоритмами. Такие эпизоды нередко заканчивались процессуальными санкциями и стали одним из ключевых аргументов в пользу разработки специальных рекомендаций. В докладе также отмечается, что аналогичные руководящие подходы уже приняты в Калифорнии, Иллинойсе и Нью-Джерси, а специализированный подкомитет Нью-Йорка по вопросам генеративного ИИ в юридической практике и разрешении споров рассматривает возможность выработки собственных стандартов. Дополнительно обсуждается вопрос о включении обязательной подготовки по ИИ в систему повышения квалификации юристов. Риски неравенства и уголовное судопроизводствоПодкомитет по вопросам предвзятости и равенства обратил внимание на то, что крупные юридические фирмы и состоятельные участники процесса обладают доступом к более совершенным ИИ-решениям, что может усиливать процессуальное неравенство. Особую обеспокоенность вызывают алгоритмы с непрозрачной логикой принятия решений, включая инструменты оценки рисков, применяемые в отдельных юрисдикциях в уголовном судопроизводстве. В итоговом выводе подчеркивается, что наибольшие риски использование ИИ несет именно в уголовных делах, тогда как в административных и вспомогательных задачах его применение выглядит менее проблематичным. Искусственный интеллект, по оценке комитета, уже занял свое место в судебной системе, однако его использование допустимо лишь при соблюдении принципов прозрачности, равноправия и подотчетности. В контексте
Кратко
22.02.2026 — Искусственный интеллект обещает повысить продуктивность работы юристов, однако вызывает новые проблемы, поскольку клиенты также используют ИИ для получения юридических консультаций. Юристы обеспокоены возможным снижением значимости почасовой оплаты и тем, что чат-боты могут давать клиентам неверные юридические советы. Модели ИИ не учитывают полный контекст и специфику законов, что приводит к искаженному восприятию ситуации клиентами и снижает доверие к профессиональным юристам. В целом, ИИ начинает менять юридическую сферу, но процесс находится на ранней стадии, — утверждает Axios. |
||
| Version 4.4 (2022) |
©Internationale Redaktion CISG.info, 1999–2026, использование куки; политика конфедициальности В рамках CISG.info и всех его поддоменов русский язык используется исключительно как официальный язык Венской конвенции ООН 1980 года (CISG) и служит целям профессионального обсуждения и анализа материалов на русском языке. Использование русского языка не является указанием на целевую аудиторию, принадлежащую к какому-либо конкретному государству, и не определяет применимое право или юрисдикцию, включая государства, где русский язык является государственным. Данные, содержащиеся на данном сайте, представляют собой общую бесплатную информацию и не являются предоставлением юридической консультации в каком-либо конкретном случае. Издатели не несут ответственности за ущерб, который может возникнуть в результате использования информации, размещенной на этом сайте и всех его поддоменах. |