Минцифры РФ и Альянс в сфере ИИ представили проект концепции регулирования технологий искусственного интеллекта до 2030 года. По данным «Ведомостей», представитель ведомства подтвердил подлинность документа и его вынесение на экспертное обсуждение. Материал объясняет суть концепции и даёт оценку по «Исламскому Кодексу применения ИИ».
- В основу будущих правил предлагаются пять принципов: человекоориентированность, «доверенность» технологий, технологический суверенитет, уважение свободы воли и запрет на «очеловечивание» ИИ.
- Акцент на балансе: развитие без лишних барьеров при защите прав человека.
- Документ пока статусом «проект», проходит консультации; после — межведомственное согласование.
- Для мусульманских пользователей важны границы: не переносить ответственность на ИИ и исключать вред.
Что произошло
Проект концепции предполагает рамочные принципы для будущих законов и подзаконных актов. Согласно сообщениям прессы, Минцифры подтверждает подготовку проекта и его экспертное обсуждение. Уточняется, что ключевая цель — создать условия для развития ИИ при сохранении прав и достоинства человека.
Пять заявленных принципов (по сообщениям прессы)
- Человекоориентированный подход: интересы и права человека — первичны.
- «Доверенность» технологий: надёжность, проверяемость и ответственность в работе систем.
- Технологический суверенитет: контроль над критическими технологиями и инфраструктурой.
- Уважение автономии и свободы воли человека: ИИ не должен подменять выбор человека.
- Запрет на причинение вреда и недопущение антропоморфизации («очеловечивания») ИИ.
Что это значит для читателя
- В законах могут закрепить требование не «очеловечивать» ИИ и не переносить на него морально-правовую ответственность.
- Права пользователя и его контроль над решениями ИИ — в фокусе.
- Ожидаются уточнения по данным, авторским правам и ответственности за вред.
Оценка по «Исламскому Кодексу применения ИИ»
Соответствия
- Недопущение вреда человеку соотносится с Принципом устранения вреда (2.2.4) и сохранением жизни (2.2.23).
- Отказ от «очеловечивания» ИИ согласуется с предостережением против технообожествления и уникальной человеческой ответственности (1.4.2; 2.1.1; 2.1.3).
- Человекоориентированность и уважение свободы воли — прямое соответствие принципам личной ответственности и права на выбор (2.1.3; 2.2.33).
- «Доверенность» технологий соответствует нормам надёжности, честности и прозрачности (2.3.8; 2.3.10; 2.2.30).
Условное соответствие
- Технологический суверенитет: логика совпадает с сохранением имущества и общественного блага (2.2.25; 2.2.19), но требует конкретизации в религиозно-этических критериях.
Потенциальные расхождения/риски
- Возможные подходы к авторским правам и «правосубъектности» результатов ИИ должны исключать приписывание ИИ статуса субъекта ответственности, что противоречило бы 1.4.2 и 2.1.3.
Матрица соответствия
Тезис/факт | Пункт(ы) Кодекса | Статус | Комментарий/контроль |
---|---|---|---|
Запрет «очеловечивания» ИИ | 2.1.1; 1.4.2; 2.1.3 | Соответствие | Исключать юридическую и моральную субъективацию ИИ; контроль в коммуникации и UX. |
Запрет причинения вреда | 2.2.4; 2.2.23 | Соответствие | Встроенные механизмы предотвращения вреда; аудит рисков до запуска. |
Человекоориентированность | 2.1.3; 2.2.33; 2.3.12 | Соответствие | Гарантировать право выбора и апелляции; фиксировать ограничения модели. |
«Доверенность» технологий | 2.3.8; 2.3.10; 2.2.30 | Соответствие | Прозрачность, правдивые описания, журналирование операций. |
Технологический суверенитет | 2.2.25; 2.2.21; 2.2.19 | Условное соответствие | Фокус на защите имущественных прав и общинной устойчивости; критерии уточнить. |
Авторские права на ИИ‑контент | 2.2.29; 2.3.2 | Условное соответствие | Соблюдать права авторов; избегать несправедливого присвоения. |
Практические выводы/чек-лист
Пользователю
- Не приписывайте ИИ «волю» и «намерения». Решения — за человеком.
- Проверяйте источники данных и результаты, особенно в религиозных вопросах (2.2.35).
- Защищайте приватность: ограничивайте предоставление персональных данных.
Разработчику/владельцу сервиса
- Документируйте ограничения модели и каналы апелляции (2.2.33; 2.3.6; 2.3.10).
- Внедрите аудит вреда и фильтрацию харам‑контента (2.2.4; 2.2.37).
- Проверьте соблюдение авторских и имущественных прав (2.2.29; 2.2.25).
- Не закладывайте «очеловечивающую» коммуникацию в интерфейсе и маркетинге (1.4.2; 2.1.1).
Риски и ограничения
- Статус документа — проект: возможны изменения формулировок и приоритетов.
- Правовой режим обучающих данных и прав на ИИ‑результаты — предмет дискуссии; следует избегать «навязанного» отчуждения прав у пользователей.
Проверка вне Кодекса
- Потенциальные формулы «прав ИИ» противоречат исламской доктрине единобожия и уникальной человеческой ответственности (2.1.1; 1.4.2). Даже как юридическая фикция они нежелательны.
- Не допускать маркетинга, который романтизирует ИИ как «разумное существо» — это противоречит этике таухида и может вводить в заблуждение обывателя.
Кандидаты к обновлению Кодекса
- Явно закрепить запрет на юридическую «антропоморфизацию» (правосубъектность) ИИ.
- Добавить ориентиры по «технологическому суверенитету» как части общественной пользы (مَصْلَحَةٌ) и сохранения имущества (2.2.25): локализация критических компонентов, контроль цепочек поставок.
- Уточнить критерии «доверенности» технологий: метрики надёжности, регистры инцидентов, порядок публичного раскрытия.
Что дальше
- Мониторить финальную редакцию концепции и профильные законопроекты.
- Готовить шаблоны политики: «не очеловечивать ИИ», «человеческая апелляция», «прозрачность и логи».
Дисклеймер рубрики
Материал носит информационно‑аналитический характер и не является фетвой (فَتْوَى) и не заменяет норму «Исламского Кодекса применения ИИ»; окончательные религиозные и этические решения принимает ответственное лицо/организация после консультации с компетентными шариатскими учёными.