Этот пункт связывает веру в القَدَرُ (аль‑кадар, предопределение) с личной ответственностью. Он защищает от ٱلْجَبْرِيَّةُ (джабарийя, фатализм) и оправданий «так решила машина». Ниже — как применять норму без потери تَقْوَى (богобоязненность) и здравого смысла.
Текст Кодекса
2.1.2. Предопределение без фатализма
Признаётся божественное предопределение, но сохраняется ответственность человека за выбор и действия при использовании ИИ. Запрещается оправдывать ошибки и злоупотребления ссылками на неизбежность или автономию технологий.
1) Шариатские основания пункта
Вера в القَدَرُ не отменяет اِخْتِيَار (ихтияр, выбор) и مَسْؤولِيَّة (мас’улийя, ответственность). Запрещён фатализм: грех не оправдывается ссылкой на «так было предписано». Добрые причины и средства — часть توَكُّل (таваккуль, упование) и не противоречат вере. Предупреждается приписывание «самостоятельной силы» творениям, включая алгоритмы. Сохранение разума и чести относится к مَقَاصِدُ ٱلشَّرِيعَةِ (высшие цели шариата). Прямые и косвенные последствия действий с ИИ относятся к сфере ответственности человека.
2) Контекст и польза
Автономные функции растут, но человек остаётся субъектом. Фатализм в ИИ снижает контроль рисков и подрывает доверие. Чёткая связь «решение — ответственный» повышает безопасность. Пользователь получает понятные права и процедуры. Команды продукта получают ясные границы حُدُودٌ (границы) и язык для коммуникаций. Организации выстраивают проверяемые процессы и аудит.
3) Формулировка и область применения
Пункт 2.1.2. Смысл нормы: верить в предопределение и при этом отвечать за выбор и действия. Оправдания «алгоритм так решил» недопустимы.
Где действует. Все гражданские ИИ‑решения: чат‑боты, рекомендательные сервисы, LLM (большая языковая модель), генеративные системы, финтех, образование и телемедицина. Публичные заявления, маркетинг и документация также подпадают под требования.
4) Практика: процессы, метрики, контроль
Процессы (минимальный уровень)
- Матрица ответственности. Должен быть назначен владелец решения за каждую функцию; должны вестись связи «кто и что одобрил».
- Human‑in‑the‑Loop. Должен быть определён этап человеческого контроля для религиозно и социально значимых сценариев.
- Язык и UX. Должны быть исключены формулы «ИИ принял решение за вас»; должны быть опубликованы ограничения модели простым языком.
- Разбор инцидентов. Должна быть определена процедура пост‑морте́м без перекладывания вины на «автономию» алгоритма.
Метрики соответствия (примеры)
- Attribution Accountability Rate (AAR): доля релизов/решений, где указан ответственный — 100%.
- Human Override Coverage (HOC): доля сценариев с возможностью ручного вмешательства — 100%.
- Incident Causality Clarity (ICC): доля отчётов, где причины отнесены к человеческим решениям/процессам, а не «к судьбе» модели — 100%.
- Disclaimer View Rate (DVR): доля экранов/страниц с разъяснением ограничений — 100%.
Контроль
- Релизный аудит. Должен быть проведён аудит использования языка «без фатализма» в интерфейсах и документах.
- Аудит решений. Должны быть проверены выборки кейсов на предмет «автономия вместо ответственности».
- Экстренный откат. Должна быть готова процедура отключения функций при массовых ошибках с вредом пользователям.
5) Примеры корректного применения (и спорные случаи)
Корректно
- Уведомление: «Система — инструмент. Принятие решений должно быть оставлено за человеком».
- Журнал: «Рекомендацию утвердил аналитик N; дата; версия модели».
- Алгоритм кредитного скоринга с понятной апелляцией и ручной проверкой спорных случаев.
Запретно
- Утверждение в рекламе: «Алгоритм всегда прав».
- Отчёт об инциденте: «Виновата автономия модели» без анализа человеческих действий — запретно.
6) Типичные ошибки и как их избежать
- Фаталистический язык. Формулы «модель сама решила» должны быть заменены на «оператор утвердил/не утвердил по рекомендации».
- Нет права на апелляцию. Должен быть описан путь обжалования и пересмотра решения.
- Слабый журнал. Должны вестись логи, связывающие действие с конкретным ответственным лицом.
7) Короткое FAQ
Можно ли списывать ошибку на «предопределение»?
Нет. Предопределение не отменяет ответственности. Нужен разбор причин и исправление.
Допустима ли полная автономия в чувствительных задачах?
Нет. Должен быть предусмотрен человеческий контроль и право на апелляцию.
Как сообщать пользователю об ограничениях?
Должны быть опубликованы краткие пояснения и ссылки на подробную политику.
Дисклеймер. Разбор носит разъяснительный характер и не является фатвой; приоритет — текст Кодекса и фетвы официальных учёных.



