Минцифры представило концепцию регулирования ИИ до 2030 года

Минцифры РФ и Альянс в сфере ИИ представили проект концепции регулирования технологий искусственного интеллекта до 2030 года. По данным «Ведомостей», представитель ведомства подтвердил подлинность документа и его вынесение на экспертное обсуждение. Материал объясняет суть концепции и даёт оценку по «Исламскому Кодексу применения ИИ».

  • В основу будущих правил предлагаются пять принципов: человекоориентированность, «доверенность» технологий, технологический суверенитет, уважение свободы воли и запрет на «очеловечивание» ИИ.
  • Акцент на балансе: развитие без лишних барьеров при защите прав человека.
  • Документ пока статусом «проект», проходит консультации; после — межведомственное согласование.
  • Для мусульманских пользователей важны границы: не переносить ответственность на ИИ и исключать вред.

Что произошло

Проект концепции предполагает рамочные принципы для будущих законов и подзаконных актов. Согласно сообщениям прессы, Минцифры подтверждает подготовку проекта и его экспертное обсуждение. Уточняется, что ключевая цель — создать условия для развития ИИ при сохранении прав и достоинства человека.

Пять заявленных принципов (по сообщениям прессы)

  1. Человекоориентированный подход: интересы и права человека — первичны.
  2. «Доверенность» технологий: надёжность, проверяемость и ответственность в работе систем.
  3. Технологический суверенитет: контроль над критическими технологиями и инфраструктурой.
  4. Уважение автономии и свободы воли человека: ИИ не должен подменять выбор человека.
  5. Запрет на причинение вреда и недопущение антропоморфизации («очеловечивания») ИИ.

Что это значит для читателя

  • В законах могут закрепить требование не «очеловечивать» ИИ и не переносить на него морально-правовую ответственность.
  • Права пользователя и его контроль над решениями ИИ — в фокусе.
  • Ожидаются уточнения по данным, авторским правам и ответственности за вред.

Оценка по «Исламскому Кодексу применения ИИ»

Соответствия

  • Недопущение вреда человеку соотносится с Принципом устранения вреда (2.2.4) и сохранением жизни (2.2.23).
  • Отказ от «очеловечивания» ИИ согласуется с предостережением против технообожествления и уникальной человеческой ответственности (1.4.2; 2.1.1; 2.1.3).
  • Человекоориентированность и уважение свободы воли — прямое соответствие принципам личной ответственности и права на выбор (2.1.3; 2.2.33).
  • «Доверенность» технологий соответствует нормам надёжности, честности и прозрачности (2.3.8; 2.3.10; 2.2.30).

Условное соответствие

  • Технологический суверенитет: логика совпадает с сохранением имущества и общественного блага (2.2.25; 2.2.19), но требует конкретизации в религиозно-этических критериях.

Потенциальные расхождения/риски

  • Возможные подходы к авторским правам и «правосубъектности» результатов ИИ должны исключать приписывание ИИ статуса субъекта ответственности, что противоречило бы 1.4.2 и 2.1.3.

Матрица соответствия

Тезис/фактПункт(ы) КодексаСтатусКомментарий/контроль
Запрет «очеловечивания» ИИ2.1.1; 1.4.2; 2.1.3СоответствиеИсключать юридическую и моральную субъективацию ИИ; контроль в коммуникации и UX.
Запрет причинения вреда2.2.4; 2.2.23СоответствиеВстроенные механизмы предотвращения вреда; аудит рисков до запуска.
Человекоориентированность2.1.3; 2.2.33; 2.3.12СоответствиеГарантировать право выбора и апелляции; фиксировать ограничения модели.
«Доверенность» технологий2.3.8; 2.3.10; 2.2.30СоответствиеПрозрачность, правдивые описания, журналирование операций.
Технологический суверенитет2.2.25; 2.2.21; 2.2.19Условное соответствиеФокус на защите имущественных прав и общинной устойчивости; критерии уточнить.
Авторские права на ИИ‑контент2.2.29; 2.3.2Условное соответствиеСоблюдать права авторов; избегать несправедливого присвоения.

Практические выводы/чек-лист

Пользователю

  • Не приписывайте ИИ «волю» и «намерения». Решения — за человеком.
  • Проверяйте источники данных и результаты, особенно в религиозных вопросах (2.2.35).
  • Защищайте приватность: ограничивайте предоставление персональных данных.

Разработчику/владельцу сервиса

  • Документируйте ограничения модели и каналы апелляции (2.2.33; 2.3.6; 2.3.10).
  • Внедрите аудит вреда и фильтрацию харам‑контента (2.2.4; 2.2.37).
  • Проверьте соблюдение авторских и имущественных прав (2.2.29; 2.2.25).
  • Не закладывайте «очеловечивающую» коммуникацию в интерфейсе и маркетинге (1.4.2; 2.1.1).

Риски и ограничения

  • Статус документа — проект: возможны изменения формулировок и приоритетов.
  • Правовой режим обучающих данных и прав на ИИ‑результаты — предмет дискуссии; следует избегать «навязанного» отчуждения прав у пользователей.

Проверка вне Кодекса

  • Потенциальные формулы «прав ИИ» противоречат исламской доктрине единобожия и уникальной человеческой ответственности (2.1.1; 1.4.2). Даже как юридическая фикция они нежелательны.
  • Не допускать маркетинга, который романтизирует ИИ как «разумное существо» — это противоречит этике таухида и может вводить в заблуждение обывателя.

Кандидаты к обновлению Кодекса

  • Явно закрепить запрет на юридическую «антропоморфизацию» (правосубъектность) ИИ.
  • Добавить ориентиры по «технологическому суверенитету» как части общественной пользы (مَصْلَحَةٌ) и сохранения имущества (2.2.25): локализация критических компонентов, контроль цепочек поставок.
  • Уточнить критерии «доверенности» технологий: метрики надёжности, регистры инцидентов, порядок публичного раскрытия.

Что дальше

  • Мониторить финальную редакцию концепции и профильные законопроекты.
  • Готовить шаблоны политики: «не очеловечивать ИИ», «человеческая апелляция», «прозрачность и логи».

Дисклеймер рубрики

Материал носит информационно‑аналитический характер и не является фетвой (فَتْوَى) и не заменяет норму «Исламского Кодекса применения ИИ»; окончательные религиозные и этические решения принимает ответственное лицо/организация после консультации с компетентными шариатскими учёными.

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Прокрутить вверх