![]() | Венская конвенция ООН о договорах международной купли-продажи товаров, 1980 г. — CISG |
Регулирование искусственного интеллекта в СингапуреСоздано: вчера | Время чтения: ~10 мин. В сфере искусственного интеллекта (ИИ) Сингапур придерживается принципа технологического нейтралитета в законодательстве: специального нормативного акта, устанавливающего правовой режим разработки и применения систем ИИ, в правопорядке Сингапура не существует. Регулирование осуществляется посредством мягкого права (soft law) — рамочных документов, руководств и отраслевых рекомендаций, не порождающих обязательных правовых последствий. Вместе с тем правительство Сингапура позиционирует ИИ как стратегический национальный приоритет. В рамках Национальной стратегии в области ИИ 2.0 (NAIS 2.0, 2023) декларируется цель создания доверенной экосистемы ответственного ИИ, стимулирующей инновации и обеспечивающей широкое вовлечение бизнеса и общества. В Бюджетном послании 2026 г. объявлено о планируемом учреждении Национального совета по ИИ под председательством Премьер-министра; институциональные параметры совета и его полномочия находятся в стадии формализации соответствующими министерствами. Инструменты саморегулирования и добровольного соответствияОснову нормативной базы составляют три рамочных документа в области управления ИИ (Model AI Governance Frameworks): Рамочный документ по управлению ИИ (2019, редакция 2020 г.) содержит рекомендации для субъектов частного сектора по урегулированию этических и управленческих вопросов при внедрении ИИ-решений. Рамочный документ по управлению генеративным ИИ (2024) формулирует девять измерений доверенной среды для конечных пользователей: подотчетность (распределение ответственности по цепочке создания стоимости), качество данных, прозрачность при разработке и развертывании, уведомление об инцидентах, тестирование и верификация, информационная безопасность, атрибуция происхождения контента, исследования в области безопасности и согласованности, а также использование ИИ в общественных интересах. Рамочный документ по управлению агентным ИИ (2026) — согласно опубликованному проектному документу (draft framework), первый в своем роде инструмент для оценки рисков автономных многошаговых ИИ-систем. В качестве ключевых принципов управления выделяются: заблаговременная оценка и ограничение рисков, обеспечение значимой ответственности человека, внедрение технических контролей на всех этапах жизненного цикла агента, а также наделение конечных пользователей надлежащими полномочиями по надзору. Параллельно Агентство по инфокоммуникационным медиа (IMDA) разработало инструментарий тестирования AI Verify — программную платформу для технической верификации ИИ-систем. Инструментарий позволяет организациям подтверждать соответствие ИИ-систем этическим принципам на основе стандартизированных методик и сопоставлен с Системой управления рисками ИИ NIST (США) и стандартом ISO/IEC 42001. По итогам пилотного проекта Global AI Assurance Pilot (2025) в 2026 г. опубликован практический набор методик тестирования LLM-приложений на предмет надежности и безопасности. Смежное законодательство и отраслевые нормыРяд действующих законодательных актов затрагивает сферу ИИ, не регулируя ее специально. Закон о дорожном движении (1961, поправки 2017 г.) допускает испытание и эксплуатацию автономных транспортных средств; Закон о медицинских изделиях (2007) требует регистрации медицинских устройств, инкорпорирующих ИИ-технологии, до их введения в оборот. Отраслевые регуляторы избрали инструментарий soft law: Комиссия по защите персональных данных — руководство о допустимости использования персональных данных в ИИ-системах рекомендательного типа и принятия решений (2024); Валютное управление Сингапура — принципы FEAT (справедливость, этика, подотчетность, прозрачность) для применения ИИ в финансовом секторе (2018/2019); Министерство здравоохранения совместно с профильными ведомствами — руководство по ИИ в здравоохранении (2021); Верховный суд и суды общей юрисдикции — руководство по использованию генеративного ИИ участниками судебного процесса (2024; подробнее см. специальный раздел ниже); Министерство юстиции — руководство по применению генеративного ИИ в юридическом секторе (проект — сентябрь 2025 г., окончательная редакция — март 2026 г.; подробнее см. специальный раздел ниже). Институциональная архитектура моделиСингапурская модель регулирования ИИ отличается рядом структурных особенностей, которые определяют ее архитектуру. Регулирование через инфраструктуру доверия. В отличие от европейской модели, основанной на жесткой нормативной категоризации рисков (как в Регламенте (ЕС) об ИИ), Сингапур строит регулирование через создание инфраструктуры цифрового доверия: стандартизированные методики тестирования, инструменты оценки рисков и соответствия, процедуры аудита алгоритмов. Технологические инструменты комплаенса (AI Verify) замещают часть жесткого регулирования, обеспечивая верифицируемость ИИ-систем без прямого законодательного вмешательства. Подход в значительной мере ориентирован на международную совместимость стандартов. Интеграция политики ИИ с цифровой стратегией государства. Регулирование ИИ институционально встроено в программу Smart Nation: Smart Nation and Digital Government Office определяет цифровую архитектуру государственного управления и координирует внедрение технологий в публичном секторе. ИИ рассматривается не как самостоятельная регулируемая область, а как элемент общей цифровой трансформации. При этом реальная координация между IMDA, Smart Nation and Digital Government Office и Digital Trust Centre Singapore носит многоуровневый характер и не сводится к единой централизованной вертикали управления. Ориентация на международную стандартизацию. Сингапур сознательно встраивает национальные инструменты управления ИИ в глобальную систему технических стандартов (ISO, NIST AI RMF). Это преследует несколько целей: облегчение трансграничного внедрения ИИ-систем, создание международно признанных процедур аудита, позиционирование Сингапура как глобального центра разработки и тестирования цифровых технологий. Регулирование фактически переносится с уровня законодательства на уровень технических стандартов и сертификационных процедур. Регулирование генеративного ИИ в судопроизводстве23 сентября 2024 г. Верховный суд Республики Сингапур издал Циркуляр Секретаря суда № 1 от 2024 г., которым ввел в действие Руководство по использованию инструментов генеративного ИИ участниками судебного процесса (Guide on the Use of Generative Artificial Intelligence Tools by Court Users). Руководство вступило в силу 1 октября 2024 г. Одновременно аналогичные циркуляры были изданы Государственными судами (Циркуляр № 9 от 2024 г.) и Судами по семейным делам (Циркуляр № 1 от 2024 г.), что обеспечило единообразное применение Руководства во всей судебной системе Сингапура — включая Трибунал по мелким искам, Трибунал по трудовым спорам, Трибунал по коммунальным спорам и суды по семейным делам. Руководство распространяется на всех участников судебного процесса (Court Users) — прокуроров, адвокатов, лиц, представляющих себя самостоятельно (self-represented litigants), и свидетелей. Термин «генеративный ИИ» определяется как программное обеспечение, генерирующее контент на основе пользовательских запросов; инструменты автоматической проверки орфографии и грамматики, не создающие контент, под действие Руководства не подпадают. Суд придерживается нейтральной позиции: использование инструментов генеративного ИИ при подготовке судебных документов (Court Documents) — то есть любых материалов, подаваемых в суд или представляемых суду, — не запрещается. Вместе с тем установлен прямой запрет на использование генеративного ИИ для создания доказательств, на которые участник процесса намерен ссылаться в суде. Ключевым принципом является полная ответственность участника процесса за содержание подготовленных им материалов вне зависимости от факта применения ИИ-инструментов. Обязательное предварительное декларирование использования генеративного ИИ не требуется, если суд специально об этом не просит. Однако участники процесса обязаны по требованию суда раскрыть, каким образом и в каком объеме использовались ИИ-инструменты при подготовке тех или иных материалов. Адвокаты сохраняют профессиональную обязанность обеспечивать достоверность представляемых суду материалов. ИИ-инструменты не являются достаточным средством правовой проверки: все ссылки на судебную практику и нормативные акты, сгенерированные с их помощью, подлежат верификации по авторитетным правовым базам данных (Singapore Statutes Online, eLitigation GD Viewer). Руководство особо оговаривает, что использование генеративного ИИ осуществляется с соблюдением законодательства о защите персональных данных, режима конфиденциальности судопроизводства, норм об охране результатов интеллектуальной деятельности и правил о правовой привилегии (legal privilege). Подчеркивается, что вся информация, вводимая в публично доступные инструменты генеративного ИИ, может быть публично раскрыта — это обстоятельство принципиально для надлежащего обращения с персональными и конфиденциальными данными. Перечень последствий нарушения Руководства включает: возложение судебных расходов на нарушителя (в том числе лично на адвоката); исключение или снижение доказательственного веса поданных материалов; дисциплинарное производство против адвоката; применение норм об ответственности за нарушение прав интеллектуальной собственности, законодательства о защите персональных данных и за неуважение к суду. Прецедентное значение приобрело дело Tajudin bin Gulam Rasul and another v Suriaya bte Haja Mohideen [2025] SGHCR 33 (решение от 29 сентября 2025 г.), в котором помощник Регистратора Высокого суда установил, что адвокат истца сослался в письменных возражениях на вымышленный прецедент, сгенерированный ИИ-инструментом без последующей верификации. Суд взыскал судебные расходы лично с адвоката, констатировав, что серьезность подобного процессуального нарушения не ограничивается нерациональным расходованием судебного времени, но посягает на базовые принципы правосудия. Разработка отраслевого руководства для юридического сектора осуществлялась в несколько этапов. 1 сентября 2025 г. Министерство юстиции (Ministry of Law, MinLaw) инициировало публичное обсуждение проекта Руководства по применению генеративного ИИ в юридическом секторе (Guide for Using Generative Artificial Intelligence in the Legal Sector); консультационный период завершился 30 сентября 2025 г. По итогам обсуждения с учетом позиций более 20 заинтересованных сторон — адвокатских образований, корпоративных юристов, поставщиков правовых технологий, академических и профессиональных объединений — документ был доработан и официально опубликован 6 марта 2026 г. на мероприятии «The Next Charter: Shaping Singapore's Legal Future Together». Руководство носит рекомендательный характер и разработано как инструмент soft law в продолжение судебного Руководства 2024 г. и Рамочного документа по управлению генеративным ИИ (IMDA, 2024). Документ адресован адвокатским образованиям различного масштаба, корпоративным юридическим службам и иным участникам правового рынка. Руководство формулирует три основополагающих принципа ответственного использования генеративного ИИ в юридической практике, соотнесенных с действующими профессиональными стандартами в соответствии с Законом о юридической профессии 1966 г. (Legal Profession Act 1966) и Правилами профессионального поведения 2015 г. (Legal Profession (Professional Conduct) Rules 2015): Профессиональная этика (Professional Ethics): юристы несут полную ответственность за все результаты своей работы вне зависимости от применения ИИ-инструментов; они обязаны применять надлежащие профессиональные знания, опыт и суждение при оказании юридических услуг. В частности, Руководство рекомендует обеспечивать постоянное присутствие «юриста в контуре управления» (lawyer-in-the-loop). Конфиденциальность (Confidentiality): юристы обязаны принимать разумные меры для защиты сведений, составляющих охраняемую законом тайну, при использовании ИИ-инструментов. Руководство особо указывает на риски трансграничной обработки данных — клиентские сведения, введенные в ИИ-системы, могут храниться на серверах за пределами Сингапура, что способно вступать в противоречие с требованиями о территориальной локализации данных. Рекомендуется получать от поставщиков ИИ-систем прямые заверения в неиспользовании конфиденциальных данных для обучения моделей. Прозрачность (Transparency): рекомендуется раскрывать клиентам информацию об использовании генеративного ИИ при выполнении конкретного поручения, если такое использование существенно влияет на характер оказываемых услуг, — во исполнение профессионального долга честности и обязанности информировать клиента обо всех обстоятельствах, способных затронуть его интересы. Помимо принципов, документ содержит пошаговую методику имплементации: разработка организационной политики использования ИИ; диагностика потребностей; отбор и оценка ИИ-инструментов; обучение персонала; мониторинг и совершенствование процессов. Методика подкреплена практическими примерами из деятельности конкретных адвокатских образований, иллюстрирующими применение генеративного ИИ для правовых исследований, улучшения качества документов и управления знаниями. Руководство представляет собой первый в Сингапуре отраслевой инструмент soft law, предназначенный специально для правового рынка и устанавливающий единые стандарты ответственного применения генеративного ИИ в юридической практике. Его принятие свидетельствует о системном характере регулятивной работы: нормативные сигналы последовательно транслируются от судебной системы (Руководство 2024 г.) к профессиональному сообществу (Руководство 2026 г.) без введения обязательных правовых предписаний. Вопросы правоприменения и ответственностиВ отсутствие специального законодательства об ИИ ответственность за правонарушения, сопряженные с созданием или применением ИИ-систем, определяется в соответствии с нормами смежных отраслей права. Специальный регулятор в данной сфере не учрежден; надзорные функции распределены между IMDA, Smart Nation and Digital Government Office и Digital Trust Centre Singapore (выполняет функции национального института безопасности ИИ — AI Safety Institute). Оценка и перспективыСингапурская модель может быть охарактеризована как инфраструктурно-ориентированная система мягкого регулирования, основанная на сочетании руководящих принципов (soft law), технологических инструментов комплаенса, отраслевых рекомендаций регуляторов и международной стандартизации. В отличие от нормативно-ориентированных моделей ЕС и Китая, сингапурский подход направлен на сохранение максимальной регуляторной гибкости при одновременном формировании доверенной цифровой среды. В контексте
Кратко
22.02.2026 — Искусственный интеллект обещает повысить продуктивность работы юристов, однако вызывает новые проблемы, поскольку клиенты также используют ИИ для получения юридических консультаций. Юристы обеспокоены возможным снижением значимости почасовой оплаты и тем, что чат-боты могут давать клиентам неверные юридические советы. Модели ИИ не учитывают полный контекст и специфику законов, что приводит к искаженному восприятию ситуации клиентами и снижает доверие к профессиональным юристам. В целом, ИИ начинает менять юридическую сферу, но процесс находится на ранней стадии, — утверждает Axios. |
||
| Version 4.4 (2022) |
©Internationale Redaktion CISG.info, 1999–2026, использование куки; политика конфедициальности В рамках CISG.info и всех его поддоменов русский язык используется исключительно как официальный язык Венской конвенции ООН 1980 года (CISG) и служит целям профессионального обсуждения и анализа материалов на русском языке. Использование русского языка не является указанием на целевую аудиторию, принадлежащую к какому-либо конкретному государству, и не определяет применимое право или юрисдикцию, включая государства, где русский язык является государственным. Данные, содержащиеся на данном сайте, представляют собой общую бесплатную информацию и не являются предоставлением юридической консультации в каком-либо конкретном случае. Издатели не несут ответственности за ущерб, который может возникнуть в результате использования информации, размещенной на этом сайте и всех его поддоменах. |