международная купля-продажа
Венская конвенция ООН о договорах международной купли-продажи товаров, 1980 г. — CISG
Остановить агрессию — важно!
Навигация
главная
текст
скачать
история
вступление в силу
статус
структура
основные положения
комментарий
практика
библиография
контракт
МЧП
принципы УНИДРУА
санкции
латынь
– chronica iuris →
про Вену
Перейти к статье
Создать выборку
Текст Конвенции
о тексте
содержание
полностью
поиск
выборка
глоссарий
частотность
+ статистика
цитирование
сравнить
My CISG plus
войти
регистрация
Факты
Номер документа ООН:
A/СОNF.97/18, Annex I

Заключена 45 лет назад — 11.04.1980 на Конференции в Вене

Вступила в силу: 01.01.1988

Государств участвует: 97

Состоит из: преамбула, 101 статья и заключительные положения

По-английски: СISG
По-немецки: UN-Kaufrecht
По-русски: КМКПТ

Официальные языки:
английский, арабский, испанский, китайский, русский, французский

Эталонное толкование: комментарий Шлехтрима

Пишется: Венская конвенция
Венская — заглавная;
конвенция — строчная
Основные понятия
добросовестность
извещение
Инкотермс 2020
коммерческое предприятие
международная сделка
нефть и газ
обычай
оферта
письменная форма
принципы
проценты
разумный срок
расторжение договора
существенное нарушение
товар
толкование Конвенции
убытки
форс-мажор
Наши проекты
CISG-Library
CISG: 20 лет
CISG: 25 лет
Vienna.CISG.info

Регулирование искусственного интеллекта в Сингапуре

Создано: вчера  |  Время чтения: ~10 мин.

В сфере искусственного интеллекта (ИИ) Сингапур придерживается принципа технологического нейтралитета в законодательстве: специального нормативного акта, устанавливающего правовой режим разработки и применения систем ИИ, в правопорядке Сингапура не существует. Регулирование осуществляется посредством мягкого права (soft law) — рамочных документов, руководств и отраслевых рекомендаций, не порождающих обязательных правовых последствий.

Вместе с тем правительство Сингапура позиционирует ИИ как стратегический национальный приоритет. В рамках Национальной стратегии в области ИИ 2.0 (NAIS 2.0, 2023) декларируется цель создания доверенной экосистемы ответственного ИИ, стимулирующей инновации и обеспечивающей широкое вовлечение бизнеса и общества. В Бюджетном послании 2026 г. объявлено о планируемом учреждении Национального совета по ИИ под председательством Премьер-министра; институциональные параметры совета и его полномочия находятся в стадии формализации соответствующими министерствами.

Инструменты саморегулирования и добровольного соответствия

Основу нормативной базы составляют три рамочных документа в области управления ИИ (Model AI Governance Frameworks):

Рамочный документ по управлению ИИ (2019, редакция 2020 г.) содержит рекомендации для субъектов частного сектора по урегулированию этических и управленческих вопросов при внедрении ИИ-решений.

Рамочный документ по управлению генеративным ИИ (2024) формулирует девять измерений доверенной среды для конечных пользователей: подотчетность (распределение ответственности по цепочке создания стоимости), качество данных, прозрачность при разработке и развертывании, уведомление об инцидентах, тестирование и верификация, информационная безопасность, атрибуция происхождения контента, исследования в области безопасности и согласованности, а также использование ИИ в общественных интересах.

Рамочный документ по управлению агентным ИИ (2026) — согласно опубликованному проектному документу (draft framework), первый в своем роде инструмент для оценки рисков автономных многошаговых ИИ-систем. В качестве ключевых принципов управления выделяются: заблаговременная оценка и ограничение рисков, обеспечение значимой ответственности человека, внедрение технических контролей на всех этапах жизненного цикла агента, а также наделение конечных пользователей надлежащими полномочиями по надзору.

Параллельно Агентство по инфокоммуникационным медиа (IMDA) разработало инструментарий тестирования AI Verify — программную платформу для технической верификации ИИ-систем. Инструментарий позволяет организациям подтверждать соответствие ИИ-систем этическим принципам на основе стандартизированных методик и сопоставлен с Системой управления рисками ИИ NIST (США) и стандартом ISO/IEC 42001. По итогам пилотного проекта Global AI Assurance Pilot (2025) в 2026 г. опубликован практический набор методик тестирования LLM-приложений на предмет надежности и безопасности.

Смежное законодательство и отраслевые нормы

Ряд действующих законодательных актов затрагивает сферу ИИ, не регулируя ее специально. Закон о дорожном движении (1961, поправки 2017 г.) допускает испытание и эксплуатацию автономных транспортных средств; Закон о медицинских изделиях (2007) требует регистрации медицинских устройств, инкорпорирующих ИИ-технологии, до их введения в оборот.

Отраслевые регуляторы избрали инструментарий soft law:

Комиссия по защите персональных данных — руководство о допустимости использования персональных данных в ИИ-системах рекомендательного типа и принятия решений (2024);

Валютное управление Сингапура — принципы FEAT (справедливость, этика, подотчетность, прозрачность) для применения ИИ в финансовом секторе (2018/2019);

Министерство здравоохранения совместно с профильными ведомствами — руководство по ИИ в здравоохранении (2021);

Верховный суд и суды общей юрисдикции — руководство по использованию генеративного ИИ участниками судебного процесса (2024; подробнее см. специальный раздел ниже);

Министерство юстиции — руководство по применению генеративного ИИ в юридическом секторе (проект — сентябрь 2025 г., окончательная редакция — март 2026 г.; подробнее см. специальный раздел ниже).

Институциональная архитектура модели

Сингапурская модель регулирования ИИ отличается рядом структурных особенностей, которые определяют ее архитектуру.

Регулирование через инфраструктуру доверия. В отличие от европейской модели, основанной на жесткой нормативной категоризации рисков (как в Регламенте (ЕС) об ИИ), Сингапур строит регулирование через создание инфраструктуры цифрового доверия: стандартизированные методики тестирования, инструменты оценки рисков и соответствия, процедуры аудита алгоритмов. Технологические инструменты комплаенса (AI Verify) замещают часть жесткого регулирования, обеспечивая верифицируемость ИИ-систем без прямого законодательного вмешательства. Подход в значительной мере ориентирован на международную совместимость стандартов.

Интеграция политики ИИ с цифровой стратегией государства. Регулирование ИИ институционально встроено в программу Smart Nation: Smart Nation and Digital Government Office определяет цифровую архитектуру государственного управления и координирует внедрение технологий в публичном секторе. ИИ рассматривается не как самостоятельная регулируемая область, а как элемент общей цифровой трансформации. При этом реальная координация между IMDA, Smart Nation and Digital Government Office и Digital Trust Centre Singapore носит многоуровневый характер и не сводится к единой централизованной вертикали управления.

Ориентация на международную стандартизацию. Сингапур сознательно встраивает национальные инструменты управления ИИ в глобальную систему технических стандартов (ISO, NIST AI RMF). Это преследует несколько целей: облегчение трансграничного внедрения ИИ-систем, создание международно признанных процедур аудита, позиционирование Сингапура как глобального центра разработки и тестирования цифровых технологий. Регулирование фактически переносится с уровня законодательства на уровень технических стандартов и сертификационных процедур.

Регулирование генеративного ИИ в судопроизводстве

23 сентября 2024 г. Верховный суд Республики Сингапур издал Циркуляр Секретаря суда № 1 от 2024 г., которым ввел в действие Руководство по использованию инструментов генеративного ИИ участниками судебного процесса (Guide on the Use of Generative Artificial Intelligence Tools by Court Users). Руководство вступило в силу 1 октября 2024 г. Одновременно аналогичные циркуляры были изданы Государственными судами (Циркуляр № 9 от 2024 г.) и Судами по семейным делам (Циркуляр № 1 от 2024 г.), что обеспечило единообразное применение Руководства во всей судебной системе Сингапура — включая Трибунал по мелким искам, Трибунал по трудовым спорам, Трибунал по коммунальным спорам и суды по семейным делам.

Руководство распространяется на всех участников судебного процесса (Court Users) — прокуроров, адвокатов, лиц, представляющих себя самостоятельно (self-represented litigants), и свидетелей. Термин «генеративный ИИ» определяется как программное обеспечение, генерирующее контент на основе пользовательских запросов; инструменты автоматической проверки орфографии и грамматики, не создающие контент, под действие Руководства не подпадают.

Суд придерживается нейтральной позиции: использование инструментов генеративного ИИ при подготовке судебных документов (Court Documents) — то есть любых материалов, подаваемых в суд или представляемых суду, — не запрещается. Вместе с тем установлен прямой запрет на использование генеративного ИИ для создания доказательств, на которые участник процесса намерен ссылаться в суде. Ключевым принципом является полная ответственность участника процесса за содержание подготовленных им материалов вне зависимости от факта применения ИИ-инструментов.

Обязательное предварительное декларирование использования генеративного ИИ не требуется, если суд специально об этом не просит. Однако участники процесса обязаны по требованию суда раскрыть, каким образом и в каком объеме использовались ИИ-инструменты при подготовке тех или иных материалов.

Адвокаты сохраняют профессиональную обязанность обеспечивать достоверность представляемых суду материалов. ИИ-инструменты не являются достаточным средством правовой проверки: все ссылки на судебную практику и нормативные акты, сгенерированные с их помощью, подлежат верификации по авторитетным правовым базам данных (Singapore Statutes Online, eLitigation GD Viewer).

Руководство особо оговаривает, что использование генеративного ИИ осуществляется с соблюдением законодательства о защите персональных данных, режима конфиденциальности судопроизводства, норм об охране результатов интеллектуальной деятельности и правил о правовой привилегии (legal privilege). Подчеркивается, что вся информация, вводимая в публично доступные инструменты генеративного ИИ, может быть публично раскрыта — это обстоятельство принципиально для надлежащего обращения с персональными и конфиденциальными данными.

Перечень последствий нарушения Руководства включает: возложение судебных расходов на нарушителя (в том числе лично на адвоката); исключение или снижение доказательственного веса поданных материалов; дисциплинарное производство против адвоката; применение норм об ответственности за нарушение прав интеллектуальной собственности, законодательства о защите персональных данных и за неуважение к суду.

Прецедентное значение приобрело дело Tajudin bin Gulam Rasul and another v Suriaya bte Haja Mohideen [2025] SGHCR 33 (решение от 29 сентября 2025 г.), в котором помощник Регистратора Высокого суда установил, что адвокат истца сослался в письменных возражениях на вымышленный прецедент, сгенерированный ИИ-инструментом без последующей верификации. Суд взыскал судебные расходы лично с адвоката, констатировав, что серьезность подобного процессуального нарушения не ограничивается нерациональным расходованием судебного времени, но посягает на базовые принципы правосудия.

Разработка отраслевого руководства для юридического сектора осуществлялась в несколько этапов. 1 сентября 2025 г. Министерство юстиции (Ministry of Law, MinLaw) инициировало публичное обсуждение проекта Руководства по применению генеративного ИИ в юридическом секторе (Guide for Using Generative Artificial Intelligence in the Legal Sector); консультационный период завершился 30 сентября 2025 г. По итогам обсуждения с учетом позиций более 20 заинтересованных сторон — адвокатских образований, корпоративных юристов, поставщиков правовых технологий, академических и профессиональных объединений — документ был доработан и официально опубликован 6 марта 2026 г. на мероприятии «The Next Charter: Shaping Singapore's Legal Future Together».

Руководство носит рекомендательный характер и разработано как инструмент soft law в продолжение судебного Руководства 2024 г. и Рамочного документа по управлению генеративным ИИ (IMDA, 2024). Документ адресован адвокатским образованиям различного масштаба, корпоративным юридическим службам и иным участникам правового рынка.

Руководство формулирует три основополагающих принципа ответственного использования генеративного ИИ в юридической практике, соотнесенных с действующими профессиональными стандартами в соответствии с Законом о юридической профессии 1966 г. (Legal Profession Act 1966) и Правилами профессионального поведения 2015 г. (Legal Profession (Professional Conduct) Rules 2015):

Профессиональная этика (Professional Ethics): юристы несут полную ответственность за все результаты своей работы вне зависимости от применения ИИ-инструментов; они обязаны применять надлежащие профессиональные знания, опыт и суждение при оказании юридических услуг. В частности, Руководство рекомендует обеспечивать постоянное присутствие «юриста в контуре управления» (lawyer-in-the-loop).

Конфиденциальность (Confidentiality): юристы обязаны принимать разумные меры для защиты сведений, составляющих охраняемую законом тайну, при использовании ИИ-инструментов. Руководство особо указывает на риски трансграничной обработки данных — клиентские сведения, введенные в ИИ-системы, могут храниться на серверах за пределами Сингапура, что способно вступать в противоречие с требованиями о территориальной локализации данных. Рекомендуется получать от поставщиков ИИ-систем прямые заверения в неиспользовании конфиденциальных данных для обучения моделей.

Прозрачность (Transparency): рекомендуется раскрывать клиентам информацию об использовании генеративного ИИ при выполнении конкретного поручения, если такое использование существенно влияет на характер оказываемых услуг, — во исполнение профессионального долга честности и обязанности информировать клиента обо всех обстоятельствах, способных затронуть его интересы.

Помимо принципов, документ содержит пошаговую методику имплементации: разработка организационной политики использования ИИ; диагностика потребностей; отбор и оценка ИИ-инструментов; обучение персонала; мониторинг и совершенствование процессов. Методика подкреплена практическими примерами из деятельности конкретных адвокатских образований, иллюстрирующими применение генеративного ИИ для правовых исследований, улучшения качества документов и управления знаниями.

Руководство представляет собой первый в Сингапуре отраслевой инструмент soft law, предназначенный специально для правового рынка и устанавливающий единые стандарты ответственного применения генеративного ИИ в юридической практике. Его принятие свидетельствует о системном характере регулятивной работы: нормативные сигналы последовательно транслируются от судебной системы (Руководство 2024 г.) к профессиональному сообществу (Руководство 2026 г.) без введения обязательных правовых предписаний.

Вопросы правоприменения и ответственности

В отсутствие специального законодательства об ИИ ответственность за правонарушения, сопряженные с созданием или применением ИИ-систем, определяется в соответствии с нормами смежных отраслей права. Специальный регулятор в данной сфере не учрежден; надзорные функции распределены между IMDA, Smart Nation and Digital Government Office и Digital Trust Centre Singapore (выполняет функции национального института безопасности ИИ — AI Safety Institute).

Оценка и перспективы

Сингапурская модель может быть охарактеризована как инфраструктурно-ориентированная система мягкого регулирования, основанная на сочетании руководящих принципов (soft law), технологических инструментов комплаенса, отраслевых рекомендаций регуляторов и международной стандартизации. В отличие от нормативно-ориентированных моделей ЕС и Китая, сингапурский подход направлен на сохранение максимальной регуляторной гибкости при одновременном формировании доверенной цифровой среды.

В контексте
Кратко

22.02.2026 — Искусственный интеллект обещает повысить продуктивность работы юристов, однако вызывает новые проблемы, поскольку клиенты также используют ИИ для получения юридических консультаций. Юристы обеспокоены возможным снижением значимости почасовой оплаты и тем, что чат-боты могут давать клиентам неверные юридические советы. Модели ИИ не учитывают полный контекст и специфику законов, что приводит к искаженному восприятию ситуации клиентами и снижает доверие к профессиональным юристам. В целом, ИИ начинает менять юридическую сферу, но процесс находится на ранней стадии, — утверждает Axios.

Version 4.4 (2022) ©Internationale Redaktion CISG.info, 1999–2026, использование куки; политика конфедициальности

В рамках CISG.info и всех его поддоменов русский язык используется исключительно как официальный язык Венской конвенции ООН 1980 года (CISG) и служит целям профессионального обсуждения и анализа материалов на русском языке. Использование русского языка не является указанием на целевую аудиторию, принадлежащую к какому-либо конкретному государству, и не определяет применимое право или юрисдикцию, включая государства, где русский язык является государственным.

Данные, содержащиеся на данном сайте, представляют собой общую бесплатную информацию и не являются предоставлением юридической консультации в каком-либо конкретном случае. Издатели не несут ответственности за ущерб, который может возникнуть в результате использования информации, размещенной на этом сайте и всех его поддоменах.