Уважаемые посетители сайта!
В данном разделе вашему вниманию представляется мой исследовательский труд — выпускная квалификационная работа на тему «Разработка исламского этического кодекса для применения искусственного интеллекта: принципы, нормы и практическое внедрение». Эта работа была выполнена в рамках обучения на факультете исламских наук Казанского исламского университета и защищена в 2025 году.
Цель исследования — выработать теоретические и практические основы интеграции исламских норм и ценностей (الشَّرِيعَةُ и الأَخْلَاقُ) в процесс развития и внедрения современных технологий искусственного интеллекта. В работе обоснована необходимость создания специального Кодекса, который станет ориентиром для разработчиков, мусульманских организаций и широкой общественности в вопросах этического и допустимого с точки зрения Ислама использования ИИ.
Данное исследование — первый шаг к формированию целостной исламской концепции в сфере цифровых технологий и этики ИИ. Оно отражает стремление объединить богатое богословское наследие с актуальными вызовами современности и отвечает на вопрос: каким должно быть ответственное внедрение ИИ в исламском обществе с позиций шариата.
Публикация работы на сайте направлена на открытое обсуждение, обмен мнениями и дальнейшее развитие темы исламской этики в цифровую эпоху. Буду признателен за ваши отзывы, вопросы и предложения.
С уважением,
Нафисуллин Руслан Талгатович (Хабибулла),
междисциплинарный исследователь в области искусственного интеллекта в исламском контексте,
автор и координатор «Исламского Кодекса применения ИИ»
МРО ООВО «КАЗАНСКИЙ ИСЛАМСКИЙ УНИВЕРСИТЕТ»
ФАКУЛЬТЕТ ИСЛАМСКИХ НАУК
Направление «Подготовка служителей
и религиозного персонала религиозных организаций»
ВЫПУСКНАЯ КВАЛИФИКАЦИОННАЯ РАБОТА НА ТЕМУ
«РАЗРАБОТКА ИСЛАМСКОГО КОДЕКСА ЭТИКИ
ДЛЯ ПРИМЕНЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРИНЦИПЫ, НОРМЫ И ПРАКТИЧЕСКОЕ ВНЕДРЕНИЕ»
Работу выполнил: Студент 5 курса группы 12201 Очно-заочной формы обучения Нафисуллин Р.Т. | «_____» ___________________2025 г. _______________________ подпись студента |
Работу допустил к защите: Научный руководитель Ст. преподаватель кафедры религиозных дисциплин Гиззатуллин Р.А. | «_____» ___________________2025 г. _______________________ подпись руководителя |
Дата защиты: ________________ Оценка защиты __________________
Казань, 2025
ОГЛАВЛЕНИЕ
ГЛАВА 1. СВЕТСКИЕ ЭТИЧЕСКИЕ НОРМЫ ПРИМЕНЕНИЯ ИИ
1.1. Эволюция этики в сфере ИИ: основные подходы и концепции
1.2. Международные стандарты и регулятивные акты в области этики ИИ (ЮНЕСКО, IEEE, ЕС и др.)
1.3. Практические кейсы и примеры реализации принципов ответственного ИИ
ГЛАВА 2. ОТБОР И ОБОСНОВАНИЕ ШАРИАТСКИХ НОРМ, РЕГУЛИРУЮЩИХ ПРИМЕНЕНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
2.1. Принципы матуридитской акыды применимые в регулировании технологий ИИ
2.2. Принципы ханафитского фикха, применимые в регулировании технологий ИИ
2.3. Принципы ахляка, применимые в регулировании технологий ИИ
ГЛАВА 3. ПРОЕКТ «ИСЛАМСКОГО КОДЕКСА ПРИМЕНЕНИЯ ИИ» И ЕГО РЕАЛИЗАЦИЯ
3.1. Структура и содержание «Исламского кодекса применения ИИ»
3.2. Методология и результаты апробации: пример шариатского чат-бота
3.3. Перспективы масштабирования и рекомендации по внедрению Кодекса
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
Стремительное развитие технологий искусственного интеллекта (ИИ) в последние десятилетия затрагивает все сферы общественной и личной жизни. В исламском сообществе распространение чат-ботов, рекомендательных систем, интеллектуальных помощников, продуктов для финансового и религиозного консультирования порождает новые вопросы о совместимости подобных технологий с нормами шариата, принципами исламской этики и богословия. Проблемы достоверности религиозных ответов, предоставленных ИИ, риск неправильной интерпретации священных текстов, защита частной информации пользователей, а также прозрачность и справедливость алгоритмов – всё это требует выработки интегрального подхода к разработке шариатских норм для использования ИИ в исламском контексте.
Вместе с тем, Ислам изначально поощряет развитие полезных наук и рассматривает их как благое дело на пути служения Аллаху. Следовательно, участники процесса создания и внедрения ИИ-технологий могут и должны способствовать распространению качественных знаний, а также повышению уровня образования, здравоохранения и финансовых услуг – разумеется, при условии строгого соблюдения принципов Ислама. Именно такой подход, совмещающий технологические инновации и религиозно-нравственные ориентиры, способен обеспечить гармоничное внедрение ИИ в жизнь мусульманской уммы.
Актуальность данного исследования обусловлена отсутствием систематизированного Исламского Кодекса применения ИИ, согласованного с исламскими нормами, который мог бы служить надежным ориентиром для разработчиков ИИ, религиозных организаций, исламских учёных и простых пользователей. В условиях, когда возможности машинного обучения и анализа данных всё более проникают в сферы, ранее относимые исключительно к компетенции факихов и муфтиев, возникает необходимость в чётких шариатских стандартах. Такой Кодекс должен учитывать как принципы традиционного богословия, исламского права и ахляка так и выработанные современной наукой нормы безопасного и ответственного применения ИИ.
Объект исследования: Регулирование применения ИИ в исламском обществе.
Предмет исследования: Исламские нормы, принципы и механизмы, обеспечивающие шариатскую допустимость и безопасность применения технологий искусственного интеллекта.
Цель работы: разработать концептуальную основу и проектный документ «Исламский Кодекс применения ИИ», обеспечивающий соответствие технологического прогресса исламским нормам и способствующий гармоничному, ответственному внедрению ИИ в исламском обществе.
Пояснение к терминологии исследования: несмотря на то, что в названии настоящей работы используется термин «этический кодекс», в дальнейшем исследование фокусируется на формировании именно «Исламского Кодекса применения искусственного интеллекта». Это обусловлено спецификой исламской правовой традиции, где нормы поведения и регулирования не сводятся к понятию светской этики. Применительно к исламскому праву термин «этика» в его современном светском значении не отражает всей глубины и комплексности религиозных предписаний. В исламе регулирование поведения человека, в том числе в технологической сфере, основывается на обязательных нормах шариата, фундаментальных принципах акыды и морально-духовных требованиях ахляка, что выходит за пределы традиционной этики. В связи с этим, последующее изложение и проектируемый документ формируются как «Исламский Кодекс применения искусственного интеллекта», опирающийся на системное единство вероучения, права и нравственности. Такой подход позволяет не только интегрировать исламские ценности в практику использования ИИ, но и создать нормативную базу, соответствующую религиозным ожиданиям мусульманской уммы. Исследование, таким образом, призвано не просто воспроизвести существующие модели этики, а предложить оригинальный нормативный инструмент для регулирования ИИ с позиции исламской традиции. Это обеспечивает релевантность и легитимность предлагаемого Кодекса для мусульманских обществ.
- Выявить и проанализировать основные международные и национальные нормы и стандарты применения ИИ, а также релевантные кейсы в сфере регулирования.
- Определить специфику исламской парадигмы в формировании шариатских норм, а также основные богословские и правовые принципы, влияющие на разработку и внедрение ИИ в исламском сообществе.
- Разработать проектный документ «Исламского кодекса применения ИИ» с учётом полученных теоретических выводов и провести оценку его практической реализации на примере шариатского чат-бота.
Определение ключевых терминов:
Искусственный интеллект (ИИ) – информационные системы и алгоритмы, способные выполнять задачи, требующие интеллектуальной деятельности, такие как обработка данных, принятие решений и генерация контента.
Кодекс – совокупность принципов и норм, регулирующих поведение участников и обладающих нормативно-обязательным характером в исламском правовом поле.
Шариат – это божественный закон, ниспосланный Аллахом для упорядочивания всех сторон жизни человека — его веры (акыда), действий (фикх) и нравственности (ахляк).
Научная новизна работы состоит в системном подходе к формированию норм применения искусственного интеллекта в исламском контексте. Впервые предложена модель, сочетающая исламские принципы с современным междисциплинарным анализом технологических стандартов ответственного ИИ. Подход учитывает как фундаментальные исламские ценности — справедливость, пользу обществу, защиту личной информации, соблюдение халяльности, — так и техническую осуществимость. Эффективность модели подтверждена на примере разработки шариатского чат-бота, который демонстрирует практическое внедрение этих норм и показывает возможности интеграции шариатских принципов в технологическую среду.
Методология исследования
Методологический подход данного исследования основывается на междисциплинарном характере проблемы и комбинирует несколько исследовательских методов и источников. Во-первых, осуществлён теоретический анализ исламских правовых источников, с акцентом на выявление принципов, релевантных для регулирования ИИ. Во-вторых, проведено сравнительное исследование созданных концепций ИИ-этики, позволяющее интегрировать передовые достижения мировой практики с нормами шариата. В-третьих, изучены существующие технические стандарты, рекомендации и протоколы в сфере ответственной разработки ИИ, чтобы уточнить набор критериев, применимых к исламскому контексту. Аналитический синтез полученных данных позволил сформировать концептуальную модель, которая дополнительно была апробирована через практический кейс – создание и тестирование шариатского чат-бота. Такой поэтапный, системный и сравнительный подход обеспечивает надежную теоретическую базу и подкрепляет выдвинутые положения эмпирическими данными, что повышает достоверность и актуальность предложенных рекомендаций.
Степень изученности темы:
Вопросы этики искусственного интеллекта активно обсуждаются в современном научном сообществе, однако большинство существующих исследований фокусируются на западных секулярных концепциях справедливости, прозрачности, приватности и доверия к ИИ. В исламском научном пространстве изучение шариатских аспектов технологий ИИ лишь набирает обороты, и в настоящее время не существует единого согласованного шариатского кодекса, опирающегося непосредственно на шариатские источники и исламские правовые традиции. Отдельные работы, представленные в исламских научных кругах, затрагивают фрагментарные вопросы, такие как использование ИИ в исламских финансах или этические аспекты цифровых фетв, но комплексного анализа, интегрирующего шариатские принципы в единый стандарт применения ИИ, пока недостаточно. Таким образом, степень изученности темы можно охарактеризовать как начальную, что обуславливает необходимость комплексного междисциплинарного подхода.
Теоретическая значимость:
Теоретическая значимость работы проявляется в расширении концептуального аппарата исламской этики применительно к современным технологиям. Исследование дополняет и конкретизирует существующие положения исламского права применительно к новому феномену – искусственному интеллекту. Сформулированные в работе принципы и нормы могут быть использованы для дальнейших теоретических исследований и развития факихской мысли, связанной с применением ИИ. Таким образом, работа способствует обогащению исламской правовой и богословской дискуссии, формируя теоретическую базу для взаимодействия исламских наук с актуальными технологическими трендами.
Практическая значимость:
Исследование имеет прикладное значение благодаря разработке исламского Кодекса применения ИИ, пригодного для разработчиков и организаций, ориентированных на исламскую аудиторию. Кодекс предоставляет нормативные критерии, обеспечивающие соответствие ИИ-продуктов шариатским требованиям и повышающие доверие пользователей.
Его применение позволит улучшить качество религиозно-ориентированных сервисов — чат-ботов, образовательных платформ, исламского банкинга, телемедицины — путём внедрения чётких шариатских норм в процессы проектирования и эксплуатации ИИ. Религиозные и образовательные учреждения смогут использовать Кодекс для выверенной работы с исламским контентом и консультированием.
Пример шариатского чат-бота демонстрирует реализацию норм на практике и может служить моделью для других сфер. Кодекс масштабируем и применим в глобальном мусульманском контексте, способствуя интеграции технологий в исламскую среду при сохранении религиозных ценностей и правовых ориентиров.
Структура дипломной работы
Структура работы включает три главы, отражающие логику решения поставленных задач.
В первой главе рассматриваются общие этические нормы применения искусственного интеллекта, сформированные на международном уровне и подкреплённые реальными кейсами из научной и корпоративной практики. На основании анализа стандартов ЮНЕСКО, IEEE, а также исследований в сфере ответственного ИИ выявляются универсальные принципы и проблемы, определяющие дальнейшую дискуссию об регулировании искусственного интеллекта.
Во второй главе раскрывается специфика исламской регуляции ИИ. На основе Корана, Сунны, иджма и кыяса систематизированы три блока норм: догматические ориентиры матуридитской акыды, правовые критерии ханафитского фикха и нравственные установки ахляка (тасаввуфа). Их сопоставление с ведущими светскими стандартами (UNESCO, EU AI Act, IEEE, ISO/IEC 42001) выявляет общие принципы справедливости и ответственности и подчёркивает уникальные исламские требования, образуя целостный набор шариатских критериев допустимого и безопасного ИИ.
Третья глава посвящена разработке проектного документа «Исламского кодекса применения ИИ» и оценке его практической реализации. На примере шариатского чат-бота демонстрируются механизмы проверки достоверности религиозных ответов и защиты пользовательских данных в соответствии с исламскими нормами. Завершает главу анализ масштабируемости предложенного кодекса на другие сферы (образование, медицина, финансовый сектор) и формулирование рекомендаций по дальнейшему совершенствованию шариатской регуляции в исламском контексте.
Таким образом, структура дипломной работы обеспечивает всестороннее рассмотрение проблемы разработки и внедрения Исламского кодекса для искусственного интеллекта, начиная с теоретических основ и заканчивая практическими реализациями.
Данная работа стремится заложить теоретический и методологический фундамент для ответственного использования ИИ-технологий в исламском контексте, предложив комплексный Кодекс и демонстрацию его применимости на практике.
ГЛАВА 1. СВЕТСКИЕ ЭТИЧЕСКИЕ НОРМЫ ПРИМЕНЕНИЯ ИИ
1.1. Эволюция этики в сфере ИИ: основные подходы и концепции
1.1.1. Исторические предпосылки зарождения этики ИИ
Современные дискуссии об этике искусственного интеллекта (ИИ) невозможно понять без рассмотрения исторических предпосылок, которые заложили основы морально-философского анализа технологических инноваций. Первые размышления об «умных машинах» и их влиянии на общество появились ещё до возникновения полноценной научной дисциплины «искусственный интеллект».
- Научная фантастика и образ «разумных роботов». Одним из фундаментальных источников этических представлений о взаимодействии человека и «искусственного существа» стала научная фантастика. В рассказах Айзека Азимова сформулированы знаменитые «Три закона робототехники»[1] — некий нормативный каркас, ограничивающий действия робота во благо человека. Несмотря на то, что «законы Азимова» не являются юридически обязательными, они сыграли ключевую роль в осмыслении принципов, которые должны регулировать поведение автономных машин, находящихся среди людей.
- Философские корни и проблема «машинной рациональности». В 1950-х и 1960-х гг. задолго до терминологического оформления «этики ИИ», философы рассматривали моральные дилеммы, возникающие при взаимодействии человека с автоматизированными системами. Норберт Винер (N. Wiener)[2], кибернетик и «отец» теории управления, подчёркивал, что технический прогресс несёт ответственность не только за рост эффективности, но и за возможные социальные и экономические проблемы. Уже тогда зарождалось понимание, что «умные» системы могут влиять на структурные аспекты общества: занятость, распределение ресурсов, социальное неравенство.
- Формирование научной области «искусственный интеллект». Как научная дисциплина, ИИ начал формироваться с 1956 г., когда на Дартмутской конференции была предложена сама концепция «искусственного интеллекта». Однако этические вопросы в то время стояли на периферии, поскольку основной задачей учёных была чисто техническая проблема — воспроизвести интеллектуальное поведение с помощью вычислительных алгоритмов.
Таким образом, исторические предпосылки этики ИИ опирались не только на абстрактные философские идеи, но и на конкретные научные проекты и технологические прогнозы. Ключевой момент — зарождение понимания, что проблема «что можно машине?» не ограничивается узкими рамками инженерии: она связана с фундаментальными вопросами морали и ответственности.
1.1.2. Ранние концептуальные подходы к этике ИИ: от 1950-х до 1990-х
В период с 1950-х до конца 1990-х гг. в сфере ИИ формировались различные исследовательские направления (экспертные системы, логический вывод, нейронные сети и т. д.), но «этический дискурс» развивался неравномерно. Ниже выделены три характерных подхода, сложившиеся в тот период.
- Технооптимизм
- Суть подхода: идеи о том, что ИИ приведёт к повсеместной автоматизации рутинных задач и освободит человека для более творческих и нравственно возвышенных занятий. Подобное отношение часто прослеживалось в работах Марвина Мински (M. Minsky) и Герберта Саймона (H. Simon).
- Этическая компонента: минимальная, поскольку предполагалось, что, решив инженерные задачи, мы автоматически придём к «раю на земле» без существенных моральных конфликтов. Скептики, однако, указывали на опасность «замещения» людей машинами, но на уровне научных публикаций проблема ограничивалась лишь тезисом, что любая технология нейтральна, а зло возникает от злоупотребления ею.
- Кибернетическая ответственность
- Суть подхода: Норберт Винер и его последователи в кибернетике ставили на первое место задачу системного анализа последствий взаимодействия «человек–машина». ИИ рассматривался как часть сложных автоматизированных систем, где есть распределение ответственности между операторами, инженерами и управляющими алгоритмами.
- Этическая компонента: упор на «человеко-центричность», поскольку счётная машина должна помогать человеку, но не заменять его моральные решения. Винер подчёркивал: «Мы можем создать систему, которая нам не подвластна», призывая к осторожности и осторожному внедрению роботов в военную сферу.[3]
- Философия «сильного ИИ» и критика «компьютерного функционализма»
- Суть подхода: Джон Серль (J. Searle) в статье «Может ли компьютер иметь сознание?» (1980) предложил мысленный эксперимент «Китайская комната»[4], оспаривающий утверждение о том, что машинное манипулирование символами эквивалентно пониманию. Возникла дискуссия о «сильном» и «слабом» ИИ: сможет ли машина обрести сознание и стать подлинным носителем моральных качеств?
- Этическая компонента: критики «сильного ИИ» (включая Серля) утверждали, что любое приписывание машинам моральной автономии ошибочно. Следовательно, этика ИИ должна в первую очередь регулировать людей, создающих алгоритмы, а не «наделять» этичностью сами алгоритмы.
Таким образом, к концу 1990-х гг. в среде учёных и философов оформились несколько различных точек зрения на природу ИИ и его возможные риски. Однако системной, институционализированной этики всё ещё не существовало. Лишь по мере роста вычислительных мощностей, популяризации интернета и коммерциализации нейронных сетей (конец 1990-х – начало 2000-х) вопросы морально-правового регулирования начали приобретать масштабный характер.
1.1.3. Институционализация этики ИИ в XXI веке
С начала 2000-х годов ИИ перестаёт быть узкой областью академических исследований и становится массовым технологическим феноменом — от поисковых систем до мобильных приложений. Это приводит к новым вызовам в сфере приватности, безопасности данных, автоматизированных решений, влияющих на жизнь миллионов людей.
- Расширение поля практического применения
- Интернет и большие данные: Компании вроде Google (ныне Alphabet), Facebook (Meta) (запрещённая на территории РФ) и Amazon становятся двигателями развития машинного обучения, поскольку обладают колоссальными массивами пользовательских данных. Вместе с этим возникает вопрос этичности сбора и анализа персональных данных без явного согласия пользователя.
- Социальные сети и проблема манипуляций: Алгоритмы рекомендаций контента (YouTube, TikTok и др.) ставят во главу угла «вовлечённость пользователя», что может приводить к формированию «информационных пузырей» и поляризации общества. Этические споры разгораются вокруг ответственности за негативные социально-политические последствия (распространение ложной информации, пропаганда экстремизма).
- Появление крупных международных документов и инициатив
- Asilomar AI Principles (2017)[5]: Разработанные Фондом Будущего Жизни (Future of Life Institute) принципы рекомендательного характера, где впервые в крупном формате обсуждаются вопросы безопасности, прозрачности и долгосрочного воздействия ИИ. Эти принципы стали катализатором широкого международного диалога об «ответственном ИИ».
- OECD AI Principles (2019)[6]: Организация экономического сотрудничества и развития сформулировала базовые принципы для государств-членов, уделив внимание правам человека, демократическим ценностям, транспарентности и подотчётности ИИ-систем.
- UNESCO Recommendation on the Ethics of Artificial Intelligence (2021)[7]: Один из наиболее всеобъемлющих глобальных документов, призывающий к «человеко-ориентированному ИИ», соблюдению культурного многообразия и защите уязвимых групп.
- IEEE Ethically Aligned Design[8]: Документ «Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems» стал важным профессиональным ориентиром для инженеров и разработчиков. IEEE подчёркивает ценности, связанные с прозрачностью алгоритмов, справедливостью, неприкосновенностью личности и контролем человека над автономными системами.
- Национальные стратегии
- Европейский союз: В 2019 г. Высшая экспертная группа при Еврокомиссии опубликовала «Этические руководящие принципы для доверенного ИИ» (Ethics Guidelines for Trustworthy AI[9]), где выделены семь ключевых требований: человеческое агентство и надзор, техническая надёжность и безопасность, конфиденциальность и управление данными, прозрачность, многообразие и недискриминация, благополучие общества и экологическое благосостояние, подотчётность.
- США: Стратегия «American AI Initiative» и Доклад оборонного института National Security Commission on Artificial Intelligence (NSCAI)[10] о перспективе применения ИИ в военной сфере ставят акцент на конкурентоспособности и безопасности, однако одновременно создаются этические комитеты для контроля автономных вооружений (Joint Artificial Intelligence Center, JAIC).
- Китай: Белая книга по ИИ (2018)[11] и Политика «Построения цифрового шёлкового пути» подчёркивают необходимость развития государственных регулятивных норм, этических стандартов и «гармонии» человека и технологий. Однако критики указывают на риски массовой цифровой слежки и социального рейтинга.
Таким образом, в начале XXI века этика ИИ начинает оформляться как отдельное направление на стыке права, философии, компьютерных наук и социологии. Международные организации, правительства и профессиональные ассоциации инициируют создание кодексов и рекомендаций, призванных сформировать «ответственный» или «доверенный» ИИ (Responsible AI, Trustworthy AI).
1.1.4. Основные концепции современной этики ИИ
Современная этика ИИ представляет собой совокупность подходов и принципов, которые можно сгруппировать в несколько концептуальных блоков:
- Принципиальная модель
- Исходит из этики обязанностей: определённый набор заповедей, правил и норм, которых должны придерживаться разработчики и пользователи ИИ.
- Пример — знаменитые «четыре этических принципа» в медицине (благожелательность, ненанесение вреда, автономия, справедливость), применённые к ИИ в сфере здравоохранения.
- Достоинство: чёткие нормативы (что можно, что нельзя).
- Недостаток: возможна негибкость при быстром технологическом развитии.
- Утилитаристский подход
- Считается, что главное — измерить пользу и вред (cost-benefit analysis). Решения оправданы, если дают наилучший суммарный результат для наибольшего числа людей.
- В ИИ это может выражаться в акценте на «общем социальном благополучии» (например, алгоритмы, снижающие преступность, повышающие эффективность здравоохранения и т. д.).
- Недостаток: риск игнорирования прав меньшинств и отдельных личностей во имя «общей пользы».
- Морально-ориентированный подход
- Фокусируется на том, каким должен быть «хороший» разработчик, пользователь, менеджер — т. е. на личных моральных качествах (добродетелях).
- ИИ-приложения проектируются с учётом формирования нравственных практик.
- Сложность: трудно формализовать «личную добродетель» на уровне корпоративных политик.
- Контекстуально-культурная парадигма
- Исходит из идеи, что этические нормы должны учитывать местный социальный и культурный контекст. Нет «универсального» набора правил, одинаково применимого во всех странах и культурах.
- В некоторых обществах (например, исламском) вопросы дозволенности (халяль, харам) могут занимать центральное место. В других — упор делается на приватность и свободу личности.
- Пример — «исламская этика ИИ», которую автор данной дипломной работы развивает в дальнейшем.
- Правовой подход
- Сосредоточен на создании жёстких нормативных актов и формировании институтов контроля (государственные регуляторы, международные организации).
- Преимущество: наличие механизма принуждения к соблюдению правил (штрафы, уголовная ответственность).
- Риск: чрезмерная бюрократизация, технологическая отсталость в условиях сложных согласований и неспособность регуляторов быстро реагировать на инновации.
В большинстве актуальных программных документов (например, в материалах ЮНЕСКО и IEEE) наблюдается синтез разных подходов: предлагаются как конкретные «запреты», так и общие ценности (не навреди, будь справедлив и т. д.), а также учитываются особенности локального регулирования.
1.1.5. Ключевые принципы и ценности в современной этике ИИ
На основе множества документов, инициатив и научных исследований к настоящему моменту выделяется ряд принципов, которые признаются «ядром» современной этики ИИ:
- Прозрачность (Transparency)
- Требование объяснимости алгоритмов (explainable AI): пользователи и регуляторы должны иметь возможность понять логику принятия решений алгоритмом.
- Публичное раскрытие целей и методов сбора данных.
- Проблема: современные нейронные сети глубокой архитектуры обладают «чёрным ящиком» сложностей, что затрудняет реализацию прозрачности на практике.
- Справедливость (Fairness) и недискриминация
- ИИ-системы не должны ущемлять права людей по признакам пола, расы, религии, возраста и т. д. (принцип «Fairness»).
- Реальные случаи: «расовые» или «гендерные» искажения в алгоритмах подбора персонала, системах кредитования и т.д.
- Инструменты коррекции: балансировка обучающих выборок, удаление или шифрование чувствительных признаков, привлечение междисциплинарных команд для экспертизы.
- Конфиденциальность (Privacy) и защита данных
- Во многих странах введены жёсткие нормативы (GDPR в ЕС, Закон о персональных данных в России — 152-ФЗ).
- С этической точки зрения считается, что сбор и обработка данных должны быть «минимально необходимыми» (data minimization) и основаны на явном согласии.
- Проблема: бизнес-модели крупных технологических компаний зачастую строятся на коммерциализации пользовательских данных, что порождает конфликты интересов.
- Ответственность (Accountability)
- Вопрос: кто виновен, если ИИ-система причинила ущерб? Разработчик, владелец, пользователь или сама программа?
- Международная практика: ИИ не признаётся «юридическим лицом» и не может нести ответственность. Следовательно, ответственность лежит на тех, кто принимает решения о применении ИИ и эксплуатирует его результаты.
- Правовая тенденция: появление «должности» корпоративного этического офицера (Chief Ethics Officer) или аналогичных ролей, отвечающих за соблюдение этических стандартов.
- Безопасность (Safety) и надёжность
- Риск «неспровоцированного» поведения ИИ, особенно в автономных военных системах и системах управления транспортом (беспилотные автомобили).
- Проблемы защищённости: взлом или саботаж алгоритмов, атаки на нейронные сети через «зашумлённые» входные данные.
- Этический императив: исключить ситуации, когда ошибка системы напрямую ставит под угрозу жизнь человека. Принимаются стандарты испытаний, сертификации и валидации таких ИИ.
- Человеко-центричность (Human-Centric AI)
- Утверждает, что любые ИИ-решения должны помогать людям, а не заменять их в критически важных процессах принятия моральных решений.
- «Право на объяснение»: пользователь может потребовать разъяснения, почему алгоритм вынес то или иное решение (например, отказ в кредите, предложение лечения).
- Европейские принципы Trustworthy AI[12] (2019) выделяют «человеческий надзор» как ключевой пункт.
- Устойчивое развитие (Sustainability)
- Новая линия дискуссии связана с экологическими аспектами ИИ: массовое использование облачных вычислений требует огромных энергоресурсов.
- Этическое требование: оптимизировать модели и инфраструктуру, снижая углеродный след, поддерживая «зелёные» технологии.
Сформировавшиеся в западном и международном контексте принципы активно внедряются корпорациями и государственными структурами, становясь частью общепринятой повестки по «ответственной» или «доверенной» разработке ИИ.
1.1.6. Критика и актуальные вызовы
Несмотря на бурное развитие этики ИИ, существует немало нерешённых проблем и дискуссионных пунктов:
- Ограниченность декларативных кодексов
- Многие компании декларируют высокие этические принципы, но на практике они могут не соблюдаться (так называемый «ethics washing»).
- Отсутствие механизмов принуждения и прозрачных критериев оценки этических норм приводит к тому, что кодексы превращаются в имиджевый инструмент.
- Конфликт экономических интересов
- Технологические гиганты зарабатывают на рекламе, больших данных и рекомендациях контента, ориентированных на удержание пользователя онлайн как можно дольше (engagement maximization). Это может противоречить принципам «не навреди» и «соблюдай приватность».
- Компаниям часто проще заплатить небольшие штрафы, чем менять фундаментальную бизнес-модель.
- Алгоритмическая непрозрачность
- Современные методы глубокого обучения (deep learning) настолько сложны, что разработчики сами не могут детально объяснить, почему сеть приняла то или иное решение (проблема «чёрного ящика»).
- Исследователи пытаются продвинуть Explainable AI (XAI), но полноценных решений, воспроизводящих сложный процесс принятия решения нейросетью, пока нет.
- Вопрос автономного оружия
- Одно из наиболее острых направлений: использование ИИ в военной сфере (дроны, роботы-убийцы, системы распознавания лиц в армии).
- Международная общественность требует запрета летального автономного оружия (Campaign to Stop Killer Robots[13]), однако нет единого соглашения, как это контролировать и кто будет «ответственным» за решение алгоритма поразить цель.
- Культурные и религиозные аспекты
- «Универсальные» западно-ориентированные принципы могут противоречить местным традициям и системам ценностей.
- Исламский подход (как описывается в настоящем дипломном исследовании) ставит во главу угла согласование технологического прогресса с нормами шариата. В других культурах (например, в конфуцианской традиции) упор делается на гармонию и коллективное благо.
- Существует потребность в адаптации глобальных этических стандартов к местным контекстам.
Таким образом, современная этика ИИ переживает «переходный период» — от множества обособленных деклараций к попыткам институционализировать этические нормы и формировать реальную практику контроля. Одновременно усиливается интерес к междисциплинарному и межкультурному диалогу, где исламская этика выступает одним из важнейших альтернативных источников принципов и норм.
Выводы по разделу 1.1
Эволюция этики ИИ прошла путь от фантастических предположений и отдельных философских идей (середина XX века) к глобальному формированию международных и национальных рекомендаций, кодексов и правовых актов (начало XXI века). В рамках этой эволюции можно выделить несколько ключевых этапов:
- Ранние идеи: «Три закона робототехники» Азимова, кибернетика Винера, дискуссия о «сильном ИИ» Серля, которые положили теоретические основы для обсуждения взаимодействия людей и разумных (или почти разумных) машин.
- Расширение применения ИИ и рост осознания этических рисков: появление больших данных, алгоритмов рекомендаций, цифрового маркетинга, что привело к социальным проблемам (манипуляции, дискриминация, отсутствие приватности).
- Институционализация: возникновение многочисленных международных принципов и рекомендаций (Asilomar, OECD, UNESCO, IEEE, ЕС и др.), национальных стратегий (США, Китай, ЕС) и корпоративных этических кодексов (Google, Microsoft, IBM и др.).
- Современная ситуация: признание необходимости комплексного подхода, объединяющего технику, право, философию и особенности локальных религиозно-культурных традиций. При этом сохраняются нерешённые вызовы — непрозрачность нейронных сетей, конфликт интересов между бизнесом и обществом, проблемы разработки автономных вооружений и т. д.
Для исламского мира особую значимость приобретает вопрос о гармонизации существующих (в основном секулярных) принципов с требованиями шариата и исламской этики. Это и определяет актуальность дальнейшего рассмотрения: каким образом исламская этическая парадигма способна обогатить и дополнить уже сформированные подходы к этике ИИ, придавая им глубину и религиозно-нравственную легитимность.
1.2. Международные стандарты и регулятивные акты в области этики ии (ЮНЕСКО, IEEE, ЕС и др.)
1.2.1. Введение в международное регулирование этики ИИ
Развитие искусственного интеллекта (ИИ) в XXI веке стало глобальным феноменом, вовлекающим правительственные структуры, международные организации, транснациональные корпорации, исследовательские институты и гражданское общество. Быстрый рост ИИ-технологий и их проникновение в повседневные аспекты жизни (медицина, финансы, транспорт, образование, социальные сети и др.) выявили целый ряд этических, правовых и социальных вызовов. Чтобы систематизировать ответ на эти вызовы, начиная с середины 2010-х годов, международные и региональные организации начали активно разрабатывать руководящие принципы, кодексы и регламентации по вопросам «ответственного» или «доверенного» ИИ (Responsible AI, Trustworthy AI).
В данном разделе рассматриваются наиболее значимые международные стандарты и регулятивные акты в сфере этики ИИ, формирующие глобальную повестку:
- Рекомендация ЮНЕСКО по этике искусственного интеллекта (UNESCO Recommendation on the Ethics of AI, 2021);
- Инженерные стандарты и инициативы IEEE в области «этично ориентированного» проектирования (Ethically Aligned Design);
- Стратегические документы и законопроекты Европейского союза (ES, включая GDPR, проект AI Act, «Этические руководящие принципы для доверенного ИИ»);
- Инициативы ОЭСР, G20 и отдельных стран, затрагивающие этический аспект ИИ.
Специфика этих документов заключается в том, что они устанавливают рамки, которые должны учитываться всеми субъектами разработки и использования ИИ — государствами, корпорациями, научными учреждениями и, в перспективе, международными судебными инстанциями. При этом исламский мир, обладая собственной правовой и богословской базой, также изучает и адаптирует эти универсальные стандарты для внедрения в исламском сообществе, что и является предметом анализа в дальнейших главах работы.
1.2.2. Рекомендация ЮНЕСКО по этике искусственного интеллекта (2021)
1.2.2.1. Исторический контекст и цели документа
ЮНЕСКО (Организация Объединённых Наций по вопросам образования, науки и культуры) стала одним из первых международных институтов, который поставил вопрос об этике ИИ на глобальную повестку дня, учитывая её уставные полномочия в сфере образования, культуры, науки и прав человека. Процесс подготовки «Recommendation on the Ethics of Artificial Intelligence» (далее — Рекомендация ЮНЕСКО) был инициирован в 2018 году, а итоговый текст принят на Генеральной конференции ЮНЕСКО в ноябре 2021 года[14].
Основная цель Рекомендации — установить универсальные принципы и ценности, направленные на обеспечение того, чтобы ИИ разрабатывался и использовался во благо людей и общества, в соответствии с общепризнанными правами человека и принципами гуманизма. Документ призван служить руководством для правительств и частного сектора при создании национальных стратегий и соответствующего законодательства.
1.2.2.2. Ключевые ценности и принципы
В соответствии с Рекомендацией ЮНЕСКО (2021), государства-члены и все заинтересованные стороны должны руководствоваться следующими базовыми ценностями и принципами (назовём лишь некоторые ключевые):
- Человек в центре (Human-centric AI). Искусственный интеллект должен служить интересам людей, повышать их благополучие и сохранять человеческое достоинство. Принцип подчёркивает, что человек должен сохранять контроль и ответственность за решения, принимаемые с помощью ИИ.
- Уважение прав человека и фундаментальных свобод. Любые разработки ИИ должны соответствовать Всеобщей декларации прав человека (1948) и другим международным документам, признающим свободу мысли, вероисповедания, неприкосновенность частной жизни. Отдельно подчёркивается необходимость уважения культурного многообразия и этических традиций различных народов.
- Справедливость, недискриминация и инклюзивность. Алгоритмы и данные не должны приводить к предубеждениям и дискриминации по признаку расы, пола, религии или иных факторов. ЮНЕСКО рекомендует уделять особое внимание обучающим наборам данных, чтобы «встроенные» социальные предрассудки не усиливались в результате машинного обучения.
- Прозрачность и подотчётность. Рекомендация указывает на важность «объяснимости» (explainability) алгоритмов. Граждане должны иметь право понимать логику функционирования ключевых систем, принимающих решения, затрагивающие их жизнь. Кроме того, разработчики и операторы систем должны нести ответственность за последствия применения ИИ.
- Ориентация на устойчивое развитие. ЮНЕСКО подчёркивает, что ИИ должен содействовать достижению Целей устойчивого развития ООН (SDGs), включая ликвидацию нищеты, улучшение образования, здоровья, обеспечение гендерного равенства и т.д.
1.2.2.3. Механизмы внедрения и оценка воздействия
Важной частью Рекомендации ЮНЕСКО является блок, посвящённый механизмам внедрения. Государствам предлагается:
- Создавать и совершенствовать национальные стратегии по ИИ с учётом принципов этики и прав человека;
- Развивать образование и просвещение в области ответственного пользования ИИ;
- Формировать независимые экспертные комиссии, способные оценивать проекты и предотвращать злоупотребления.
Документ также предусматривает «этические оценки влияния» (ethical impact assessment), позволяющие систематически анализировать, какие эффекты (положительные и негативные) может вызвать внедрение ИИ. Такой подход близок к понятию «шариатская экспертиза» (описанной в дальнейшем в контексте исламского права).
1.2.2.4. Значение для исламского контекста
По оценкам экспертов, ценностные принципы Рекомендации ЮНЕСКО во многом согласуются с исламскими представлениями о справедливости, уважении к личности, социальном благе и предосторожности в вопросах потенциального вреда.
В ряде исламских стран (ОАЭ, Саудовская Аравия, Малайзия, Индонезия и др.) Рекомендация ЮНЕСКО интегрируется в национальные программы развития ИИ, параллельно с учётом норм шариата. Такой подход отражает глобальный характер этики ИИ: универсальные ценности могут дополняться локальными правовыми и религиозными традициями.
1.2.3. Стандарты и инициативы IEEE: «Этично ориентированное проектирование» (Ethically Aligned Design)
1.2.3.1. Роль IEEE в формировании технических стандартов ИИ
IEEE (Institute of Electrical and Electronics Engineers) — крупнейшая в мире профессиональная ассоциация инженеров, создающая и поддерживающая технические стандарты. С начала 2010-х годов IEEE стала играть заметную роль в продвижении идей этики и ответственности в инженерном сообществе.
В 2016 году IEEE запустила глобальную инициативу «Global Initiative on Ethics of Autonomous and Intelligent Systems», в рамках которой был подготовлен масштабный документ «Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems»[15] (1-я редакция — 2019 г.). Цель данной инициативы — дать разработчикам и исследователям практические рекомендации, как учитывать нравственные и социальные аспекты на этапе проектирования и внедрения ИИ-технологий.
1.2.3.2. Ключевые принципы IEEE Ethically Aligned Design
Документ «Ethically Aligned Design» (далее — EAD) был создан коллективом экспертов из области робототехники, информатики, психологии, философии и права. В центре внимания EAD лежат следующие принципы:
- Человеко-ориентированность и уважение автономии. Системы должны поддерживать и усиливать человеческие ценности, а не подменять решение моральных дилемм.
- Гармония с правами и этикой. Проекты должны соответствовать как универсальным ценностям, так и локальным культурным нормам. IEEE подчёркивает многообразие социально-культурных контекстов и призывает к диалогу с местными сообществами.
- Техническая прозрачность. Разработчики обязаны стремиться к алгоритмической объяснимости (explainable AI), понятной конечному пользователю; также приветствуются открытые наборы данных и репозиториев кода (open data, open code), когда это не противоречит нормативам безопасности.
- Ответственность и отчётность. EAD предлагает концепцию «accountability-by-design»[16], где механизмы контроля качества, аудита и валидации должны быть встроены в каждый этап жизненного цикла системы ИИ.
- Защита данных и приватность. Особый акцент сделан на необходимости «Privacy by Design»[17] — системных мер для предотвращения утечек персональных данных, непреднамеренного их использования и прочих злоупотреблений.
1.2.3.3. Практическое применение: стандарты серии P7000
В дополнение к общим декларациям о ценностях, IEEE разработала серию стандартов P7000, адресованных конкретным этическим проблемам в разработке электронных и интеллектуальных систем:
- P7001 — Transparency of Autonomous Systems (прозрачность автономных систем);
- P7002 — Data Privacy Process (приватность данных);
- P7003 — Algorithmic Bias Considerations (недопущение предвзятости алгоритмов);
- P7006 — Personal Data AI Agent (управление персональными данными через ИИ-агентов) и т. д.
Эти документы ориентированы на инженеров, чтобы дать им набор практических методов (чек-листов, метрик, рекомендаций), которые можно интегрировать в процесс разработки программного и аппаратного обеспечения.
1.2.3.4. Значимость для исламской этики ИИ
Подход IEEE к «этично ориентированному проектированию» легко коррелирует с рядом исламских принципов:
- «Прозрачность» (Explanatory AI) созвучна исламскому требованию справедливости и ясного донесения информации, исключающего обман.
- «Privacy by Design» согласуется с нормами шариата о сохранении личной тайны.
- «Accountability-by-Design» напоминает исламский принцип личной и коллективной ответственности (масъуля) за последствия действий.
Таким образом, практические инструменты IEEE могут быть адаптированы для создания «халяльных» или «исламских» ИИ-систем, если на уровне организационной культуры и надзорных механизмов будут учтены шариатские нормы. В дальнейшем тексте работы будут рассмотрены примеры, как разработчики из мусульманских стран используют указанные стандарты.
1.2.4. Европейский союз: Этические руководства и проект регулирования ИИ
1.2.4.1. Контекст европейской правовой системы
Европейский союз (ЕС) исторически уделяет значительное внимание защите прав человека, демократическим ценностям и социальному равенству. Сфера ИИ не стала исключением: руководящие органы ЕС полагают, что новые технологии должны развиваться в русле «Digital Single Market», соблюдая требования конфиденциальности (GDPR), потребительского права и недискриминации.
Начиная с 2018 года, Европейская комиссия активно продвигает подход «доверенного ИИ» (Trustworthy AI), сформулированный в ряде документов и инициатив.
1.2.4.2. «Этические руководящие принципы для доверенного ИИ» (2019)
В апреле 2019 года Высшая экспертная группа при Еврокомиссии опубликовала «Ethics Guidelines for Trustworthy AI»[18] (далее — Руководство ЕС). В документе выделены семь требований, которые система ИИ должна удовлетворять, чтобы считаться «доверенной»:
- Человеческое агентство и надзор (Human agency and oversight). Алгоритмы не должны подрывать автономию человека, следует сохранять возможность пересмотра решений, принятых автоматически.
- Техническая надёжность и безопасность (Technical robustness and safety). ИИ-система должна быть устойчивой к сбоям и злонамеренным атакам, а также демонстрировать предсказуемость поведения.
- Конфиденциальность и управление данными (Privacy and data governance). Сбор и обработка данных должны соответствовать GDPR, необходимость использования персональных данных должна быть чётко обоснована.
- Прозрачность (Transparency). Включает понятие «объяснимости алгоритмов», чёткость коммуникации с пользователем о том, что он взаимодействует с ИИ, а не с человеком.
- Разнообразие и недискриминация (Diversity, non-discrimination). Рекомендовано тщательно проверять наборы данных, чтобы избежать скрытых предубеждений.
- Благополучие общества и окружающей среды (Societal and environmental well-being). Проекты должны учитывать долгосрочные эффекты для экологии, социальной структуры и здоровья людей.
- Подотчётность (Accountability). Предполагает наличие ответственных лиц или органов, способных проводить аудит, расследование инцидентов и корректирующие меры.
1.2.4.3. Проект Европейского акта об искусственном интеллекте (AI Act)
В апреле 2021 года Европейская комиссия представила проект «AI Act»[19], который станет первым крупным законодательным актом ЕС, специально регулирующим применение ИИ. В основе проекта лежит «риско-ориентированный подход» (risk-based approach[20]), классифицирующий системы ИИ по уровням риска: от «минимального» (например, алгоритмы фильтрации спама) до «неприемлемого» (системы социального скоринга, манипуляции поведением).
- Системы «высокого риска» (например, медицинские, финансовые или применяемые в правоохранительных органах) будут подлежать строгим процедурам сертификации и надзора.
- Проект также вводит запреты на некоторые формы применения ИИ, считающиеся фундаментально противоречащими правам человека (как, например, слежка в реальном времени за гражданами в общественных местах).
AI Act предусматривает жёсткие штрафы за нарушения (до 6 % общего оборота компании), что говорит о серьёзном отношении ЕС к «внедрению этики» через нормативно-правовой механизм.
1.2.4.4. Перспективы исламской адаптации
С учётом того, что в ряде стран ЕС проживает значительная мусульманская община, а исламские организации ведут активную деятельность (например, шариатские советы по финансам), многие положения «Ethics Guidelines for Trustworthy AI» и AI Act могут служить основой для «исламского» этического комплаенса. Особенно это касается:
- Прозрачности и соблюдения «Privacy by Design» (отражающей исламские принципы защиты личной тайны).
- Недопущения дискриминации по религиозному признаку.
- Защиты уязвимых групп населения, включающей культурный и религиозный контекст.
Можно ожидать, что в будущем исламские научные центры в ЕС будут адаптировать AI Act с учётом шариатского права (фикха), формируя дополнительные «надстроечные» требования к религиозному содержанию, фильтрации харам-контента и соответствию макасид аш-шариа.
1.2.5. Инициативы ОЭСР, G20 и национальные стратегии
1.2.5.1. Принципы ОЭСР по ИИ (2019)
Организация экономического сотрудничества и развития (ОЭСР) объединила 38 стран, включая ведущие западные экономики, и опубликовала «OECD Principles on AI»[21] в 2019 году. Эти принципы близки к подходу ЕС и ЮНЕСКО, делая акцент на следующих аспектах:
- ИИ должен приносить пользу людям и планете, способствовать устойчивому росту.
- Система управления данными и алгоритмами должна исключать предвзятость и обеспечивать подотчётность.
- Требуется прозрачность и возможность объяснить решения системы.
- Необходимо обеспечивать безопасность, приватность и учёт прав пользователей.
Принципы ОЭСР носили рекомендательный характер, но стали точкой отсчёта для многих национальных стратегий. После их выхода «Группа двадцати» (G20) в 2019 году приняла «Руководящие принципы G20 по ИИ»[22] (G20 AI Principles), которые в целом повторяют принципы ОЭСР.
1.2.5.2. Национальные стратегии: примеры США, Китая и ОАЭ
Многие страны разработали собственные национальные стратегии ИИ, в которых можно выделить блоки, посвящённые вопросам этики.
- США: «American AI Initiative»[23] (2019) сосредоточен на поддержке исследований и конкурентоспособности промышленности, однако правительство также создало профильные этические комитеты (например, Joint Artificial Intelligence Center, Минобороны).
- Китай: «План развития нового поколения искусственного интеллекта»[24] (2018) ставит цель стать мировым лидером в ИИ к 2030 году. Китайские регуляторы фокусируются на безопасности и контроле, однако критики указывают на риск массовой цифровой слежки и социального кредитного рейтинга. При этом в Белой книге по ИИ (2018) упоминаются ценности «гармонии» и «безопасности», отражающие конфуцианскую традицию.
- ОАЭ: Выделяется как одна из исламских стран, открыто продвигающая технологические инновации в сочетании с этикой: в ОАЭ учреждена должность «Министр искусственного интеллекта», выпущена «UAE AI Strategy 2031»[25], где указаны принципы «ответственного ИИ», защиты частной жизни и «баланса инноваций с национальной культурой». Эти шаги отражают стремление интегрировать глобальные стандарты с нормами шариата.
1.2.6. Аналитическое сравнение международных актов и их релевантность для шариатского контекста
Чтобы показать, как перечисленные документы можно адаптировать к исламским реалиям, необходимо выделить несколько общих знаменателей.
- Человеко-ориентированность и уважение к человеческому достоинству
- Все международные акты (ЮНЕСКО, IEEE, ЕС) подчёркивают, что ИИ должен служить благу общества, а не подрывать основы человечности.
- В Исламе аналогом является принцип сохранения жизни, разума, религии, имущества и чести (макасид аш-шариа). Алгоритмы должны проектироваться так, чтобы защищать и не нарушать эти ценности.
- Прозрачность, подотчётность, ответственность
- Международные документы призывают к объяснимости ИИ (explainable AI), наличию механизмов аудита, а также к определению «ответственных» лиц или организаций.
- В исламской этике также важна концепция аманата (доверительной ответственности) и духовной отчётности перед Всевышним. Практический инструмент — «шариатский аудит» или комиссия по исламской этике (см. Кодекс этики из данной работы).
- Недискриминация и справедливость
- Для ЕС, ЮНЕСКО и IEEE приоритет — исключить алгоритмические предубеждения.
- В исламской традиции справедливость (‘адл) является одним из центральных понятий, а дискриминация по расе, полу или религии противоречит шариату (если это не касается специфических правовых нюансов, но в целом шариат проповедует равное человеческое достоинство).
- Защита приватности и данных
- Нормы GDPR и аналогичные требования к сбору, хранению и использованию персональных данных.
- В шариате защита личной тайны и конфиденциальности имеет религиозное обоснование (см. Коран 49:12 о недопустимости «шпионажа»)[26].
- Оценка воздействия и превентивный подход
- Международные документы призывают к оценке рисков внедрения ИИ, особенно в «высокорисковых» сферах.
- Исламский подход (истихсан, садд аз-зараи) также подразумевает превентивный анализ рисков, особенно если технология может привести к хараму или нарушению общественного блага.
Проблемные моменты и возможности интеграции
- Автономное оружие. В международных актах пока нет единого запрета на «роботов-убийц», хотя многие призывают ограничить использование ИИ в военной сфере (кампания «Stop Killer Robots»). Для исламской юриспруденции вопрос ещё острее, так как использование вооружений регламентируется правилами ведения войны по шариату.
- Вопрос этического плюрализма. Глобальные стандарты ориентированы на светскую модель этики, что иногда затрудняет прямую интеграцию с религиозными нормами (например, в вопросах, связанных с изображениями, музыкой, финансовыми сделками). Однако именно для этого нужны локальные исламские кодексы, сочетающие универсальные принципы с шариатскими предписаниями.
- Регулирование контента. Международные акты говорят о «запрете незаконного контента», «защите от экстремизма», но детальные правила «харам» и «халяль» контента затрагиваются только в рамках национальных правовых систем (например, в странах с исламским правом). Здесь Исламский Кодекс этики (как в данной работе) может служить дополнительным, специализированным руководством.
1.2.7. Значение и перспективы для исламского сообщества
Сформировавшийся в последние годы «эталон» этики ИИ — это сочетание международных документов (ЮНЕСКО, ОЭСР, G20), региональных (ЕС с его проектами AI Act), профессиональных (IEEE) и национальных стратегий, которые задают высокую планку ответственности. Применительно к исламскому контексту можно выделить несколько перспективных направлений:
- Создание национальных этических нормативов, сочетающих требования шариата и международные стандарты.
- Уже есть примеры — Саудовская Аравия (KSA AI Ethics Principles)[27], ОАЭ (UAE AI Strategy)[28].
- Возможно, в будущем появятся надрегиональные исламские стандарты (под эгидой Организации исламского сотрудничества).
- Развитие исламских центров компетенций в сфере «Исламский ИИ».
- Аналогично IEEE, можно сформировать структуру, где специалисты по фикху и IT будут разрабатывать технические руководства (например, «P7000, адаптированное к шариату»).
- Интеграция исламских принципов (масляха, садд аз-зараи, истихсан) на уровне методических пособий по проектированию.
- Внедрение «шариатского аудита» ИИ-продуктов.
- Подобно тому как существует исламский аудит в финансах (шариатский надзорный совет при банках), можно создать специализированные комиссии, оценивающие алгоритмы на соответствие Кодексу исламской этики ИИ (как описано в главах нашей работы).
- Выдача сертификатов «Шариатски выверенный ИИ», повышающих доверие мусульманской аудитории.
- Участие мусульманских стран в глобальных форумах по этике ИИ.
- В рамках ЮНЕСКО, ООН, G20, OECD, где принимаются важные решения, следует усиливать позицию исламского сообщества, аргументируя её богословско-правовыми доктринами и культурными традициями.
Таким образом, международные стандарты и регулятивные акты не противоречат специфике шариата; напротив, во многом они коррелируют с исламскими представлениями о социальной ответственности, справедливости и нравственной ценности человека. Однако, чтобы обеспечить их реализацию в мусульманских обществах, необходимы локализованные руководства и кодексы, которые учли бы богословские и юридические нюансы. Один из таких документов (Исламский Кодекс этики применения ИИ) предложен в рамках данной дипломной работы.
Выводы по разделу 1.2
- Универсальные принципы. Современные международные документы в сфере этики ИИ (Рекомендация ЮНЕСКО, инициативы IEEE, Руководство ЕС, принципы ОЭСР, G20) демонстрируют высокий уровень консенсуса в вопросах: прозрачности алгоритмов, защиты персональных данных, недискриминации и учёта интересов общества. Их стержнем является человеко-центричная парадигма, стремящаяся ограничить потенциальные злоупотребления и защищать человеческое достоинство.
- Институционализация этики. Организации уровня ЮНЕСКО и ОЭСР, а также региональные структуры (ЕС) и профессиональные ассоциации (IEEE) разрабатывают не только декларативные принципы, но и практические механизмы внедрения: стандарты (P7000), регламенты (AI Act), методологии оценки воздействия (impact assessment). Этот процесс формирует глобальную архитектуру управления ИИ.
- Культурно-религиозная адаптация. Учитывая разнообразие мировых сообществ, в том числе исламского, эти документы обычно декларируют «уважение к культурному многообразию». Однако конкретное воплощение этой идеи возлагается на национальные правительства и местные профессиональные сообщества. Для исламского контекста особенно важна адаптация принципов к шариатским нормам (макасид аш-шариа), требованиям халяль/харам, необходимости богословского надзора.
- Перспектива исламского подхода. Исламский мир может опираться на эти универсальные стандарты, дополняя их своими правовыми (фикх) и этическими (ахляк) установками. Создание и распространение Исламского Кодекса этики ИИ способно интегрировать международные нормы с традицией шариата, предлагая детальную регламентацию религиозно значимых вопросов (изображения, аудио, финансовые операции, религиозные консультации и др.). Таким образом, исламские страны и сообщества не остаются изолированными, а вплетаются в глобальный дискурс, одновременно сохраняя богословско-правовую специфику.
- Практическая значимость. Ориентация на международные стандарты (IEEE, ЮНЕСКО, ЕС) даёт мусульманским разработчикам и компаниям выход на глобальный рынок, повышая уровень доверия и качества продуктов. Сертификация, соответствие принципам «этики ИИ» становится конкурентным преимуществом.
Все эти аспекты создают прочную основу для перехода к более узкой, но глубокой теме данной работы — формированию исламского этического кодекса для ИИ с учётом специфики шариата и современных технологических реалий. В следующем подразделе (1.3) будут рассмотрены практические кейсы, иллюстрирующие применение принципов ответственного ИИ, а в Главе 2, ин шаа Аллах, мы перейдём к специфике исламской парадигмы и богословско-правовым основаниям этики ИИ.
1.3. Практические кейсы и примеры реализации принципов ответственного ИИ
1.3.1. Общие тенденции практического применения ответственного ИИ
В последние годы мы наблюдаем быстрое расширение масштабов внедрения искусственного интеллекта во все сферы человеческой деятельности: от медицины и образования до муниципального управления и религиозного консультирования. При этом повышенное внимание к этическим аспектам — закономерный результат осознания рисков, связанных с непрозрачностью алгоритмов, возможной дискриминацией, нарушением приватности, а также угрозами для социальной и духовной стабильности общества.
Ниже мы рассмотрим несколько реальных кейсов и проектов, в которых принципы «ответственного ИИ» применяются на практике. При этом наша цель — не только показать техническую или коммерческую ценность решений, но и продемонстрировать, каким образом организации пытаются соответствовать международным (и в некоторых случаях религиозным) стандартам этики искусственного интеллекта.
В контексте данной дипломной работы особенно важны две составляющие:
- Соблюдение универсальных этических норм (прозрачность, справедливость, защита данных, ответственность).
- Учёт исламских ценностей (соответствие шариату, ахляку, уважение к вероубеждению, отсутствие харам-функционала), где это применимо.
1.3.2. Здравоохранение и медицинские приложения: пример IBM Watson Health
1.3.2.1. Краткий обзор проекта
IBM Watson Health[29] — это одно из первых и наиболее известных применений технологий искусственного интеллекта в области диагностики и персонализированной медицины. Система пытается анализировать медицинские записи, лабораторные данные и научные публикации, чтобы выдавать рекомендации по лечению различных заболеваний, включая онкологические.
Основная идея состоит в том, чтобы клиницисты получали «второе мнение» от когнитивной системы, изучающей огромные массивы данных. При этом разработчики заявляют о соблюдении принципов «ответственного ИИ», в частности:
- Прозрачность и доверие: IBM публикует общие сведения о методах машинного обучения и объёме анализируемых данных (хотя детальная архитектура «Watson for Oncology» не полностью открыта).
- Защита конфиденциальности: данные пациентов шифруются и деперсонализируются в соответствии с HIPAA (Health Insurance Portability and Accountability Act) в США и аналогичными стандартами в других странах [2, с. 40].
- Подотчётность: за финальные клинические решения по-прежнему отвечают врачи, а не ИИ, что согласуется с принципами многих этических кодексов, в том числе и исламских (где решение, влияющее на жизнь и здоровье, всегда лежит на человеке-медике).
1.3.2.2. Этическая и религиозная составляющая
В контексте исламских норм данный проект может вызвать вопросы, связанные с:
- Использованием биометрических данных: В исламском праве, основанном на защите личных сведений, важно корректное хранение геномной информации и медицинских историй.
- Принятие решений о жизни и смерти: В онкологии бывают случаи, когда вопрос лечения связан с паллиативной помощью, трансплантацией органов и другими сложными шариатскими аспектами. Подобные решения должны приниматься не «автоматически», а с участием врачей и религиозных экспертов, если это касается вопросов, регулируемых шариатом (например, использование определённых лекарственных компонентов).
- Согласование с «макасид аш-шариа» (сохранение жизни): В целом поддержка диагностики и повышение эффективности лечения соответствуют целям шариата по сохранению жизни. Применение такого ИИ скорее приветствуется, если соблюдаются нормы прозрачности и отсутствуют харамные компоненты (например, недозволенные примеси в медикаментах).
Таким образом, IBM Watson Health иллюстрирует удачный пример частичного внедрения принципов ответственного ИИ. Однако для исламского контекста необходимо дополнительно прорабатывать «шариатский аудит», что подразумевает привлечение религиозных консультантов в клиники, использующие подобные технологии.
1.3.3. Финансовые решения: исламский банкинг и «шариатские» сервисы
1.3.3.1. Автоматизированные платформы исламских финансов
В секторе исламских финансов всё активнее применяются решения на базе ИИ для анализа рисков, выявления мошенничества (fraud detection), кредитного скоринга и консультаций по халяль-инвестициям. Примером может служить платформа Wethaq[30] (ОАЭ), которая использует блокчейн и алгоритмы машинного обучения для выпуска и управления «сукук» (исламских облигаций).
Также есть кейсы, когда банки внедряют чат-ботов, отвечающих на вопросы клиентов об условиях халяль-кредитования, особенностях исламских контрактов (мурабаха, иджара, мудараба) и т. д. При этом крайне важна богословская достоверность ответов и отсутствие «рекомендаций», противоречащих шариату.
1.3.3.2. Принципы ответственного ИИ в исламском банкинге
- Недопущение риба (ростовщичества): Алгоритмы, рассчитывающие проценты, должны исключать структуры, попадающие под запрет риба. Платформы, разрабатываемые для исламских финансов, обязаны опираться на соответствующие фетвы и решения шариатских советов.
- Прозрачность структуры сделок: В исламском праве сделки должны быть ясны обеим сторонам (неопределённость или умолчание — недопустимы). Следовательно, ИИ-системы должны предоставлять полную информацию об условиях финансирования, источниках дохода и возможных рисках.
- Справедливость и избегание дискриминации: Кредитные рейтинги и скоринг-модели могут иногда дискриминировать клиентов по географическому или этническому признаку. Исламские банки стремятся проверить, чтобы алгоритмы не содержали таких дискриминаций, нарушающих принцип справедливости и равенства.
- Аудит и одобрение шариатского совета: В большинстве крупных исламских банков есть шариатские советы, которые проверяют технологические решения. При использовании ИИ целесообразно проводить дополнительный аудит алгоритмов.
1.3.3.3. Практический пример: Al Rajhi Bank (Саудовская Аравия)
Один из крупнейших исламских банков Al Rajhi Bank с 2019 года внедрил автоматизированные системы для анализа транзакций и персонализированных финансовых рекомендаций. Система, ссылаясь на базу шариатских контрактов, автоматически проверяет соответствие операций требованиям халяль. При этом банк подчёркивает важность «человеческого надзора» — каждый нестандартный случай, где алгоритм не уверен, передаётся команде шариатского контроля.
Опыт Al Rajhi Bank показывает, что сочетание современных технологий (big data, машинное обучение) с религиозно-правовыми процедурами (шариатский надзор, фетвы) позволяет эффективно автоматизировать часть рутины, сохраняя принцип «исламской аутентичности» финансового продукта.
1.3.4. Образовательные платформы и онлайн-курсы: адаптивные системы обучения
1.3.4.1. «Adaptive Learning» и этика ИИ
В сфере образования ИИ применяется для создания адаптивных обучающих курсов, где система анализирует результаты тестов и индивидуальный прогресс учащегося, чтобы формировать персональные рекомендации. Такие решения продвигают компании вроде Coursera, EdX, Duolingo и другие.
- Duolingo, например, использует machine learning для определения «оптимальных» интервалов повторения слов и грамматических конструкций, персонализируя маршрут обучения.
- Coursera тестирует инструменты автоматической проверки письменных заданий (auto-grading) с анализом стиля и логики ответа.
1.3.4.2. Принципы ответственного ИИ в образовательных технологиях
- Недопущение психологического давления: Адаптивные платформы могут «подталкивать» учащегося слишком интенсивно, вызывая стресс или зависимость. Этические руководства (например, UNESCO Recommendation по ИИ в образовании) требуют разумного баланса между мотивацией и сохранением благоприятного учебного климата.
- Справедливость: Доступ к интеллектуальным системам обучения не должен создавать дополнительное неравенство. Считается, что такие технологии должны быть доступны и для социально незащищённых групп, что в исламском контексте коррелирует с принципом заботы об уязвимых слоях.
- Учёт культурных и религиозных особенностей контента: Если речь идёт о предметах, затрагивающих морально-этические вопросы, важно, чтобы алгоритм не пропагандировал ценности, противоречащие убеждениям пользователей. В исламских странах или исламских учебных заведениях может быть внедрён специальный «фильтр», исключающий харам-контент (например, порнографические или богохульные материалы).
1.3.4.3. Исламские онлайн-платформы: Madinah e-Learning
В ряде исламских образовательных проектов, таких как MeeM Academia, ведётся экспериментальное использование ИИ-платформ для дистанционного обучения Корану и хадисам. Система Quran Tutor AI [31](пилотный проект) включает распознавание речи, проверку правильности таджвида (правил чтения Корана), а также адаптивные упражнения для улучшения хифза и понимания религиозных текстов.
Основные функции Quran Tutor AI:
- Мгновенная коррекция таджвида Приложение анализирует произношение пользователя в реальном времени, выявляет ошибки и предоставляет немедленные рекомендации по их исправлению, что особенно полезно для тех, кто не имеет постоянного доступа к квалифицированному учителю.
- Персонализированное обучение Система адаптируется к уровню знаний и темпу обучения каждого пользователя, предлагая индивидуальные планы занятий и упражнения, что способствует более эффективному усвоению материала.
- Поддержка заучивания (хифз) Используя методы интервального повторения и интерактивные упражнения, приложение помогает пользователям эффективно заучивать аяты Корана и отслеживать свой прогресс.
- Интерактивные элементы и геймификация Для повышения мотивации, особенно среди детей, в приложение интегрированы викторины, задания и система наград, что делает процесс обучения более увлекательным.
- Доступность 24/7 Пользователи могут заниматься в любое удобное время и из любого места, что особенно важно для тех, кто имеет ограниченные возможности посещать традиционные занятия.
Этот пример демонстрирует, как современные технологии могут быть направлены на усиление религиозного образования, что согласуется с исламским принципом пользы и стремлением к знанию.
1.3.5. Городское управление и общественная безопасность: этические аспекты систем видеонаблюдения
1.3.5.1. Системы «умного» города (Smart City)
Во многих мегаполисах мира внедряются «умные» системы на основе искусственного интеллекта (ИИ) для управления различными аспектами городской инфраструктуры, включая транспортные потоки, уборку мусора, электроэнергию и обеспечение общественной безопасности. Проект «Smart Dubai» в Объединённых Арабских Эмиратах является ярким примером такого подхода.
Основные направления применения ИИ в проекте «Smart Dubai»:
- Управление транспортными потоками:
- Департамент дорог и транспорта Дубая (RTA) внедряет системы управления дорожным движением, использующие ИИ и технологии цифровых двойников для оптимизации работы светофоров и снижения заторов.
- Планируется, что к 2030 году 25% всех поездок в городе будут осуществляться с использованием автономных транспортных средств, управляемых ИИ.
- Общественная безопасность:
- Полиция Дубая использует ИИ для анализа данных с видеокамер, включая технологии распознавания лиц и предиктивной аналитики, что способствует снижению уровня преступности и повышению эффективности правоохранительных органов.
- В городе функционирует система «Oyoon», объединяющая данные с тысяч камер видеонаблюдения для мониторинга и предотвращения преступлений.
- Управление электроэнергией и устойчивое развитие:
- В рамках стратегии достижения нулевых выбросов к 2050 году, Дубай использует ИИ для оптимизации работы солнечных электростанций и интеллектуальных энергосетей, обеспечивая эффективное распределение энергии и прогнозирование потребления.
- Умные городские сервисы:
- Приложение Dubai Now предоставляет жителям доступ к более чем 130 государственным услугам, включая оплату счетов, продление лицензий и отслеживание заявок, с использованием ИИ для улучшения пользовательского опыта.
- Виртуальный помощник на базе ИИ, Rashid, предоставляет круглосуточную поддержку жителям и бизнесу. ierek.com
- Управление отходами:
- В городе внедряются интеллектуальные системы управления отходами, использующие ИИ для оптимизации маршрутов сбора мусора и повышения эффективности переработки.
Таким образом, проект «Smart Dubai» демонстрирует, как интеграция ИИ в различные аспекты городской жизни может повысить эффективность, устойчивость и безопасность мегаполиса.
При этом встаёт вопрос о приватности: обширное видеонаблюдение может нарушать право на личную тайну, если не установлен чёткий регламент хранения и использования данных (особенно лицевой биометрии). В исламском праве также важна защита частного пространства.
1.3.5.2. Принципы «ответственного» умного города
- Минимизация сбора данных: По этическим требованиям (например, Guidelines for Trustworthy AI в ЕС) сбор и хранение видео- и аудиозаписей должны соответствовать принципу «не собирать больше, чем необходимо» (data minimization).
- Недискриминационное распознавание лиц: Системы facial recognition должны избегать расовых или гендерных дискриминаций, о которых неоднократно сообщали исследователи (в частности, Joy Buolamwini и Timnit Gebru). В исламском контексте это принцип равенства (нет предпочтения по этническому признаку).
- Соразмерность (садд аз-зараи): Исламская правовая концепция «предотвращения вреда» подразумевает, что нельзя применять технологию без достаточных оснований. Использование повсеместного распознавания лиц может считаться чрезмерным, если нет реальной угрозы безопасности.
1.3.5.3. «Умный город» NEOM (Саудовская Аравия) и его вызовы
В Саудовской Аравии идёт строительство футуристического «города NEOM»[32]. Согласно презентациям, там будут широко применяться ИИ-технологии: автономные транспортные средства, роботы-ассистенты, в том числе для туристов и паломников.
NEOM представляет собой масштабную инициативу в рамках стратегии «Vision 2030», направленную на трансформацию экономики страны и развитие высокотехнологичной инфраструктуры. Проект активно внедряет технологии искусственного интеллекта (ИИ) в различные аспекты городской жизни, включая транспорт, обслуживание туристов и паломников.
Применение ИИ в проекте NEOM
- Автономный транспорт: NEOM планирует создать устойчивую и бесшовно связанную транспортную экосистему, включающую автономные решения для передвижения по суше, воздуху и морю. Проект направлен на развитие умной, совместной и устойчивой системы общественного транспорта, полностью работающей на возобновляемых источниках энергии.
- Роботы-ассистенты: В рамках NEOM планируется широкое использование роботов-ассистентов в различных сферах, включая гостиничный сервис и обслуживание туристов. Ожидается, что количество роботов превысит число жителей города, что подчеркнет его высокотехнологичный характер.
Инициативы за пределами NEOM
Помимо NEOM, Саудовская Аравия внедряет ИИ-технологии для улучшения обслуживания паломников. Например, в 2024 году был представлен «Робот-наставник», предназначенный для помощи паломникам в выполнении обрядов Хаджа и Умры. Этот робот предоставляет информацию на 12 языках, включая арабский, английский, французский, русский и китайский, и оснащен сенсорным экраном для интерактивного взаимодействия.
Таким образом, проект NEOM и другие инициативы в Саудовской Аравии демонстрируют стремление страны к интеграции ИИ-технологий в различные аспекты городской и религиозной жизни, что соответствует целям стратегии «Vision 2030».
С одной стороны, упор делается на высокотехнологичную инфраструктуру, что может улучшить экономику и сервисы. С другой — критики указывают на риски тотального видеонаблюдения и угрозы приватности. Представители шариатского совета КСА отмечают необходимость чёткого регламентирования доступа к собранным данным, чтобы не нарушать исламскую этику в отношении частной жизни.
Таким образом, кейс с умными городами показывает, что при внедрении ИИ в масштабах городской среды принципы ответственного ИИ требуют сложного баланса между безопасностью, эффективностью и уважением к личной тайне. В исламском мире это приобретает дополнительный религиозно-правовой уровень, так как сбор персональных данных может рассматриваться как нарушение «аманата», если нет соответствующего согласия и гарантий надёжного хранения.
1.3.6. Религиозные чат-боты и консультационные системы
1.3.6.1. Природа религиозных чат-ботов
Религиозные чат-боты (включая исламские) всё чаще используются для просветительских целей: отвечают на вопросы о пятничной проповеди, посте, зикрах, халяльном питании, правилах намаза и т. д. Подобные сервисы могут работать на мессенджерах (Telegram, WhatsApp) и веб-сайтах. Пример — чат-боты «Ask the Mufti», «Imanify», «Mufti.ai», «Digital Mufti», «Chat Islam Bot» и др.
Особенности и функции:
Доступность: Многие из этих чат-ботов доступны через популярные мессенджеры и веб-платформы, обеспечивая легкий доступ для пользователей по всему миру.
Многоязычие: Некоторые боты поддерживают несколько языков, включая арабский, английский, французский, русский и китайский, что делает их доступными для широкой аудитории.
Интерактивность: Пользователи могут задавать вопросы в реальном времени и получать ответы, основанные на достоверных исламских источниках.
Образовательные ресурсы: Некоторые платформы предлагают дополнительные материалы, такие как статьи, видеоуроки и руководства по различным аспектам исламской практики.
Таким образом, использование исламских чат-ботов для просветительских целей становится все более распространенным, предоставляя мусульманам и интересующимся исламу людям удобный способ получения достоверной информации.
1.3.6.2. Вызовы достоверности и контроля
- Проблема качества контента: Автоматическая генерация ответов может привести к ошибкам или даже к ереси, если модель ИИ «напутает» цитаты из хадисов или некорректно их интерпретирует.
- Требование валидации: Как указывается в нашем Исламском Кодексе этики, религиозный контент должен проходить «двойную проверку» — алгоритмическую и экспертную, чтобы исключить заблуждения.
- Ответственность: ИИ, по шариату, не может нести моральной ответственности. Следовательно, владельцы и разработчики чат-бота обязаны обозначить границы компетенции бота и обеспечить надзор со стороны факиха.
1.3.7. Дипфейки и мультимодальный контент: пример «Deepfake Detection Challenge»
1.3.7.1. Технологические риски дипфейков
Возможности генерировать «реалистичные» поддельные видео, где люди говорят или делают то, чего не было на самом деле (так называемые дипфейки), вызывают серьёзные этические и социальные опасения. Применение ИИ для таких манипуляций может приводить к распространению ложных свидетельств, дискредитации людей, религиозных авторитетов, политиков.
С точки зрения исламской этики (и любого другого систематизированного морального учения), ложь, клевета, обман недопустимы. Участие в создании дипфейков, способных ввести людей в смуту (фитна), является актом злоупотребления технологией.
1.3.7.2. Deepfake Detection Challenge (Facebook, Microsoft)
Чтобы противостоять злоупотреблениям дипфейками, в 2019–2020 гг. была проведена инициатива Deepfake Detection Challenge при участии Facebook (запрещённая на территории РФ), Microsoft и партнёров. Цель — разработать алгоритмы, эффективно выявляющие «синтезированные» видео. Итоги показали, что современные модели могут достигать точности 65–80 %, но всё ещё не идеальны.
- Принцип предотвращения вреда: Эти исследования направлены на минимизацию манипуляций и защищают общество от агрессивного информационного воздействия.
- Подотчётность: Организаторы конкурса подчёркивают, что социальные сети и IT-компании обязаны внедрять средства обнаружения дипфейков, чтобы не допустить широкого распространения ложного контента.
1.3.7.3. Исламская перспектива
Если рассматривать дипфейки с исламской точки зрения, особенно важно:
- Недопустимость искажения образов религиозных личностей: Создание фейкового видео с участием пророков или уважаемых учёных может быть расценено как тяжёлое нарушение.
- Запрет на унижение или клевету: Согласно Корану[33] (49:11–12), недопустима клевета и высмеивание, что в контексте дипфейков может привести к тяжёлым последствиям (оклеветанный человек, религиозный скандал и т. п.).
- Применение блокирующих механизмов: Разработчики ИИ в исламских странах могут обязаться внедрять системы фильтрации и распознавания дипфейков (см. «human-in-the-loop» в нашем Кодексе), чтобы предотвратить харамный контент.
Таким образом, кейсы с дипфейками иллюстрируют прямой риск нарушения этических и религиозных норм, а также коллективные усилия глобальных игроков по созданию инструментов противодействия.
1.3.8. Системы рекомендаций в социальных сетях и вопрос манипуляции
1.3.8.1. Алгоритмы рекомендаций (Recommendation systems)
Социальные сети широко используют ИИ-алгоритмы, чтобы рекомендовать контент пользователям на основе их предпочтений. Это может приводить к формированию «информационных пузырей» (filter bubbles), укреплению радикальных взглядов и манипуляции эмоциями пользователей (англ. «emotional contagion»).
- Этическая проблема: Компаниям выгодно продлевать время пребывания пользователя на платформе, иногда за счёт провокационных материалов. Это противоречит принципу «не навреди» (non-maleficence) в этике.
- Исламский аспект: Чрезмерное увлечение социальными сетями может вызывать зависимости, расходиться с принципом умеренности и приводить к просмотру недозволенного (харам) контента, если нет фильтра.
1.3.8.2. Попытки саморегулирования
В 2021–2022 гг. ряд соцсетей (YouTube, TikTok) ввели дополнительные настройки, позволяющие пользователям частично управлять рекомендациями: указывать «не рекомендовать» конкретные темы, а также видеть метки «почему мне показали этот контент». Это шаг к прозрачности, но остаётся весьма ограниченным [28, с. 34–36].
1.3.8.3. Перспективы исламского дизайна рекомендательных систем
В теории можно представить «исламизированную» соцсеть или платформу, где ключевой приоритет — отсутствие харамного контента и этически нежелательных алгоритмов «подсаживания» пользователя на бесконечную ленту. Для этого может потребоваться:
- Фильтр тем: Автоматическая блокировка контента, идущего вразрез с исламской моралью (порнография, клевета, исламофобия и т. д.).
- Принцип осознанной вовлечённости: Возможность установки «таймера», ограничивающего период использования, чтобы не было чрезмерного погружения в социальные сети (т. н. «digital well-being»).
- Механизмы «садд аз-зараи»: Предотвращение потенциальных вредных сценариев (например, агитации вражды по религиозному признаку).
Пока подобных глобальных проектов не так много, но частные исламские приложения, например, для чтения Корана и хадисов, уже пытаются предлагать «рекомендательный контент» в допустимых религиозных рамках.
1.3.9. Выводы и уроки из практических кейсов
Анализ реальных проектов и инициатив показывает, что принципы ответственного ИИ (прозрачность, защита данных, недопущение дискриминации, человеческий надзор) постепенно выходят за рамки теоретических деклараций и становятся критерием конкурентоспособности и общественного признания технологий. Компании, государственные структуры и исследовательские институты всё чаще:
- Институционализируют этику: создают «этические комитеты», вводят должность «офицера по этике», проводят внутренние «аудиты» алгоритмов.
- Ориентируются на международные стандарты (например, рекомендации ЮНЕСКО, принципы IEEE) и законопроекты (AI Act в ЕС), чтобы не столкнуться с юридическими и репутационными рисками.
- Стараются учитывать культурные и религиозные особенности: в исламских сообществах это особенно важно, так как шариат накладывает дополнительные ограничения на контент и требует богословской оценки религиозных функций ИИ.
При этом, по сравнению с теоретическими идеалами, на практике остаётся ряд сложностей:
- Технические ограничения (недостаточная объяснимость глубоких нейронных сетей).
- Конфликт интересов (коммерция vs. этика).
- Необходимость междисциплинарного подхода, когда специалисты по ИИ и юристы/богословы должны тесно взаимодействовать.
В исламском мире все эти сложности осложняются параллельной потребностью соответствовать шариатским принципам и согласовывать решения с религиозными учёными.
При грамотном проектировании и надзоре ИИ может способствовать достижению благих целей и развитию исламского сообщества, не нарушая при этом морально-религиозных норм.
Выводы по разделу 1.3
Практика внедрения ответственного ИИ подтверждает, что этические принципы (прозрачность, защита данных, недискриминация, ответственность, человеко-центричность) могут и должны применяться во многих областях — от медицины и финансов до образования и религиозного консультирования. При этом исламская специфика (требование соответствия шариату, богословская проверка религиозного контента, запрет харам-материалов) придаёт дополнительный уровень регуляции, делая необходимым участие религиозных экспертов и шариатских советов на всех этапах жизненного цикла ИИ.
Вывод: Реальные кейсы демонстрируют, что принципы ответственного ИИ далеко не утопия. Однако их полноценная реализация зависит от технической компетентности команд, готовности инвестировать в этические аудиторы и волевого решения менеджмента учитывать не только коммерческие выгоды, но и социально-нравственные нормы. В исламском контексте это осложняется необходимостью согласования с шариатом и привлечением факихов и богословов, что, впрочем, даёт шанс выработать устойчивые и сбалансированные решения, сочетающие современную технологию и вечные религиозные ценности.
Первая глава настоящего исследования была посвящена анализу основных подходов к этике искусственного интеллекта, существующих на международной арене, с целью выявить общие и потенциально совместимые с исламской этикой принципы.
В параграфе 1.1 рассмотрена эволюция этики в сфере ИИ: от утилитарных подходов к «благу человечества» до концепции «доверенного ИИ» (trustworthy AI), где акцент сместился на права человека, прозрачность и подотчётность. Особое внимание уделено этико-философским вопросам: можно ли возложить моральную ответственность на ИИ, и если нет, как гарантировать, что решения алгоритмов будут соответствовать принятым нормам.
В параграфе 1.2 проведён обзор ключевых международных стандартов и регулятивных актов в области этики ИИ, включая Рекомендацию ЮНЕСКО (2021), инициативу IEEE Ethically Aligned Design, принципы ОЭСР и проект AI Act ЕС. Установлено, что хотя эти документы формально секулярны, они содержат положения, близкие к исламской этике: человекоцентризм, уважение к достоинству личности, предотвращение вреда, обеспечение справедливости, защита приватности, а также подотчётность разработчиков. Эти универсальные принципы могут служить отправной точкой для адаптации исламского подхода, при условии учёта специфики шариатских норм.
Параграф 1.3 проанализировал реальные кейсы внедрения принципов ответственного ИИ — от медицинских платформ (например, IBM Watson Health), до исламских банков и образовательных приложений, использующих ИИ. Наиболее релевантными для исламского этического анализа оказались проекты, сочетающие технологическую инновационность с соблюдением шариатских ограничений — фильтрация харам-контента, учёт макасид аш-шариа, наличие человеческого надзора, шариатский аудит. Особенно ценно, что кейсы показывают: этические нормы, включая исламские, могут быть технически реализуемы в архитектуре ИИ-систем через интерфейсы, фильтры, протоколы проверки и валидации.
Таким образом, в первой главе была не просто подтверждена теоретическая и практическая возможность интеграции исламских норм в разработку и эксплуатацию искусственного интеллекта, но и очерчены контуры той методологической трансформации, которая необходима для адаптации глобальных этических принципов к исламскому контексту. В условиях, когда большинство существующих кодексов ИИ этики опираются исключительно на секулярные гуманистические основания, становится очевидным, что они не способны охватить всю полноту требований, предъявляемых исламским мировоззрением. Для мусульманских обществ, где нормы поведения регулируются не только светскими законами, но и религиозно-правовой системой шариата, критически важно дополнить универсальные принципы такими категориями, как халяль и харам, макасид аш-шариа, богобоязненность (такъуа), ответственность перед Всевышним и духовная чистота намерений (ихлас). Только включение этих категорий способно обеспечить подлинную легитимность ИИ в исламской среде. Первая глава, тем самым, формирует не просто логическую, но и содержательно-нормативную предпосылку для перехода ко второй главе, в которой будет произведён системный отбор, теологическое обоснование и нормативное оформление исламских принципов из матуридитской акыды, ханафитского фикха и ахляка. Эти принципы, отобранные не произвольно, а по признаку релевантности к технологии ИИ, станут основой для построения всеобъемлющего и теологически обоснованного Исламского Кодекса, способного не только регулировать, но и направлять развитие ИИ в соответствии с ценностями Уммы.
ГЛАВА 2. ОТБОР И ОБОСНОВАНИЕ ШАРИАТСКИХ НОРМ, РЕГУЛИРУЮЩИХ ПРИМЕНЕНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
2.1. Принципы матуридитской акыды применимые в регулировании технологий ИИ
Разработка исламского кодекса применения искусственного интеллекта требует системного осмысления не только с позиций фикха и этики поведения, но прежде всего сквозь призму исламского вероубеждения (акыды). В то время как фикх определяет дозволенность или запрет конкретных действий, а ахляк задаёт этические нормы поведения, именно акида формирует мировоззренческий фундамент, на котором строится отношение мусульманина ко всем явлениям мира, включая технологические.
Настоящий раздел представляет собой первую попытку выявить и обобщить те ключевые принципы матуридитской акыды[34], которые могут иметь регулирующее значение в отношении технологий искусственного интеллекта. Речь идёт о выработке богословских координат — о том, какие представления о человеке, знании, ответственности, предопределении и божественной воле могут направлять разработку и применение ИИ с точки зрения вероучения ислама.
Автор осознаёт новизну и предварительный характер подобного подхода. Но именно с таких небольших, на первый взгляд, усилий начинается становление нового научного направления — исламской теологии технологий. В условиях стремительного развития искусственного интеллекта мусульманская умма не может оставаться в стороне, полагаясь лишь на внешние, секулярные рамки. Необходим глубокий, внутренне проработанный подход, основанный на наследии исламской мысли — в первую очередь, на её основах, то есть на акыде.
1. Единобожие и предостережение против технообожествления (ат-таухид)
Принцип таухида – абсолютной единственности Бога – лежит в основе исламского мировоззрения. Творец один, и только Ему присущи совершенные атрибуты всемогущества, всезнания и полного господства над миром. Отсюда следует категорическое запрещение идолопоклонства в любой форме – поклоняться, обожествлять что-либо, кроме Аллаха, это считается наиглубочайшим заблуждением. В контексте технологий ИИ данный принцип служит предупреждением против возможной «технообожествления» – возвеличивания искусственного интеллекта до объекта безусловного поклонения или слепого почитания. Матурудитская акыда учит, что даже признавая высокое могущество Аллаха, человек сохраняет свободу воли и обязан действовать, а не ожидать чуда без усилий. При этом верующий всегда помнит: только Всевышний обладает неограниченной властью, а любые творения (включая самые продвинутые технологии) суть ограниченные инструменты в Его властном миропорядке.
Соответственно, на этапе разработки недопустимо относиться к ИИ как к некоему всемогущему решению всех проблем или наделять его полномочиями, свойственными только человеку (или Богу) – например, правом безапелляционно решать вопросы жизни и смерти. Инженеры должны помнить о конечности и обусловленности любой модели. При внедрении важно избегать формирования у общества культа технологий: ИИ не должен подаваться как непогрешимый оракул. Принцип прозрачности здесь выступает практическим средством: пользователи должны понимать, что общаются с машиной, а не с высшим существом, и знать пределы ее компетенции. На стадии эксплуатации мусульманин, пользуясь ИИ, хранит упование только на Аллаха и не считает ИИ источником истины в последней инстанции – его решения ценны лишь постольку, поскольку они полезны и не противоречат законам Творца.
В светских этических стандартах прямого аналога таухиду нет, однако звучат сходные предостережения: например, некоторые эксперты упоминают риск «мифа о магическом ИИ» и призывают сохранять критическое восприятие технологий, не делая из них кумира. Также принцип «human dignity»[35] в международных актах предполагает, что человек не должен подчиняться машине как высшему авторитету – что перекликается с исламским пониманием недопустимости поклонения чему-либо, кроме Бога.
2. Предопределение без фатализма (аль-кадар)
В матуридитском вероучении предопределение (кадар) понимается как всеобъемлющее Божественное знание и воля обо всем сущем, однако это не означает фатализма и отсутствия у человека выбора. Аллах предвечным знанием знает поступки людей, но творит их после того, как человек сознательно делает выбор. Матурудиты подчеркивают, что Божественное предопределение не лишает людей свободы воли: человек наделен «ограниченной свободой», достаточной для исполнения возложенных обязанностей, и поэтому не может снять с себя ответственность, ссылаясь на рок или действие одной лишь техники.
В контексте ИИ данный принцип призывает разработчиков не считать исход алгоритмов чем-то неизбежно предначертанным: на этапе проектирования и обучения следует предусмотреть механизмы коррекции и этического контроля решений ИИ, а не относиться к ним как к фатальному «черному ящику»[36]. При внедрении в эксплуатацию систем ИИ важно избегать технологического детерминизма – понимания, будто раз созданная модель действует неизбежно и неподвластно этической настройке. На стадии эксплуатации конечные пользователи должны осознавать, что результаты работы ИИ не являются непогрешимым «роком» и при необходимости могут и должны корректироваться человеком.
Секулярные кодексы этики ИИ содержат близкое требование сохранения за человеком конечного контроля и ответственности за решения ИИ – например, в рекомендациях ЮНЕСКО подчёркивается, что системы ИИ не должны устранять верховную ответственность человека.
3. Свобода воли и личная ответственность (аль-ирада ва-ль-масулия)
Матурудитское богословие учит, что человек обладает свободной волей (ирада) и сам несёт ответственность (масулия) за свой моральный выбор. Аллах сотворил человека со способностью различать добро и зло и дал разум (акль) для самостоятельного выбора. Хотя все человеческие деяния творятся Богом, это происходит в соответствии с выбором самого человека, а не помимо него. Так, Ислам отвергает идею, что ответственность можно переложить на кого-либо или на что-либо помимо самого деятеля. Матурудитские авторы поясняют, что Всевышний создаёт поступки человека лишь постольку, поскольку наделил его способностью действовать, – и воздаёт затем по тому, как эта способность реализован. Следовательно, каждый деятель (в том числе создатель или оператор технологии) морально ответствует за свои решения.
Применительно к ИИ этот принцип требует, чтобы на стадии разработки у создателей алгоритмов был осознан этический выбор: они свободны внедрить в систему как благонамеренные, так и нежелательные функции, и несут персональную ответственность за этот выбор. На этапе внедрения в эксплуатацию нельзя позволять системе ИИ действовать совершенно автономно: необходим человеческий надзор (oversight[37]) и возможность вмешательства, чтобы человек оставался в «loop»[38] и отвечал за последствия работы алгоритма. Во время пользовательской эксплуатации решения, принимаемые на основе рекомендаций ИИ, также остаются зоной ответственности человека – конечный пользователь не должен оправдывать свои поступки ссылкой на «так решил ИИ».
Подавляющее большинство светских принципов этики ИИ содержит аналогичное положение о необходимости сохранения человеческой ответственности и подотчетности при использовании алгоритмов. Концепции human-in-the-loop[39], принципы Accountability[40] и Human Oversight[41], закреплённые в международных руководствах, отражают ту же идею о неустранимости человеческой воли и контроля.
4. Роль разума наряду с откровением (аль-акль ва-н-накль)
Одним из отличительных принципов матуридийской акыды является гармоничное сочетание разума (акль) и откровения (накль) как источников истины. Матурудиты учат, что фундаментальные истины веры могут быть постигнуты разумом, но в рамках, не противоречащих откровению. Аль-Матуриди подчеркивал: истинное знание не может противоречить достоверному тексту Корана и Сунны, а если возникает кажущееся противоречие, то ошибка кроется в человеческих рассуждениях, которые подлежат пересмотру. Разум дан человеку для осмысления божественных знаков, и в матуридитской теологии утверждается обязанность использовать интеллект для укрепления веры.
Применительно к технологиям ИИ этот принцип означает, что на этапе проектирования следует опираться и на научно-рациональные методы, и на этические нормы, выведенные из религиозных источников. Так, мусульманский разработчик ИИ призван совмещать строгие логические подходы (математика, эмпирические данные) с принципами шариата, чтобы технология не противоречила правовым и моральным установлениям откровения. При внедрении ИИ на практике требуется экспертиза как технических специалистов, так и богословов, чтобы инновации «не выходили за рамки дозволенного» и отвечали сразу и рациональным требованиям безопасности, и духовно-нравственным ценностям. На этапе использования конечными пользователями необходимо поощрять осознанное и критическое отношение: с одной стороны, разумная критика выводов ИИ (не слепое доверие машине), с другой – соотнесение полученных рекомендаций с религиозно-нравственными ориентирами.
В светских кодексах этики аналог отсутствует в явном виде (светские подходы опираются только на разум и науку).
5. Природа знания и эпистемологические критерии (аль-ма’рифа ва-ль-хабар)
Аль-Матуриди разработал целостное учение о источниках истинного знания (ма’рифа). Согласно матуридитской эпистемологии, знание может основываться на трех источниках: (1) чувственный опыт и восприятие (басар, сам’), усиленные врожденной интуицией; (2) рациональное понимание через размышление (назар) и выводы разума; (3) достоверное сообщение и учение (хабар) от пророков и предыдущих поколений. Таким образом, помимо откровения, ценность имеют данные органов чувств и логические выводы, если они не противоречат первым двум источникам. Для матуридизма характерно признание объективной истины: человек обязан стремиться к ней и отличать достоверное знание от предположений.
В сфере ИИ данный принцип находит отражение в акценте на качестве и надежности данных. На этапе подготовки и обучения моделей важно использовать достоверные источники информации: алгоритмы машинного обучения должны обучаться на проверенных, верифицированных датасетах, аналогично тому, как в Исламе особое внимание уделяется надежности хабар (например, проверка иснадов хадисов). При внедрении системы следует обеспечивать прозрачность её решений и объяснимость выводов – это можно сравнить с требованием эпистемологической обоснованности: решение ИИ должно опираться на прослеживаемые данные и логику, понятную человеку. На стадии эксплуатации пользователей необходимо предупреждать о пределах достоверности выводов ИИ: они не обладают абсолютной истиной и требуют критической оценки (как сказано в Коране, «О верующие! Если нечестивец принесет вам [какое-либо] известие, то проверьте [его на достоверность], чтобы по незнанию не навредить людям, и чтобы после не пожалеть о содеянном.»[42]).
Многие светские этические руководства содержат аналогичные положения о надежности и верификации данных ИИ. В них закреплены принципы обеспечения качества данных, подтверждения выводов модели и борьбы с алгоритмическими ошибками – эти идеи созвучны исламскому требованию проверять информацию и опираться на достоверное знание, прежде чем действовать.
6. Справедливость Аллаха и принцип меры (аль-адл ва-ль-вус’)
В матуридитском учении Бог характеризуется абсолютной справедливостью (адл) и мудростью, что проявляется, в частности, в том, что Аллах не возлагает на человека обязанностей сверх его возможностей. Принцип «аль-вус’а» (букв. «меры, вместимости») основан на кораническом аяте «Не возлагает Аллах на человека того, что не в его силах.» (Коран 2:286)[43] и означает, что требования религии соразмерны человеческой способности их выполнить. Аль-Матуриди, полемизируя с джабритами, утверждал, что было бы противно божественной мудрости и справедливости требовать от человека то, что он физически не может совершить. Например, Бог не прикажет слепому видеть или безрукому – дать милостыню рукой. Матурудиты согласны с муʿтазилитами в том, что возложение невозможного («таклиф ма ла ютаκ») несовместимо с Божьей справедливостью, хотя и не считают, что Бог обязан делать для человека лишь «наилучшее» – Аллах волен испытывать людей трудностями, но не нарушает принцип соразмерности.
В применении к ИИ этот теологический принцип трансформируется в требование справедливости и разумной достаточности технологий. На этапе проектирования системы должны создаваться с учетом ограничений как самой технологии, так и пользователей: недопустимо ожидать от ИИ решений вне его возможностей (например, требовать от узкоспециализированного алгоритма обобщающего интеллекта) или перекладывать на пользователя непосильную ответственность без предоставления инструментов контроля. При внедрении алгоритмов, влияющих на судьбы людей, необходимо соблюдать принцип справедливости: модели должны проходить проверку на отсутствие систематических bias’ов, дискриминации, чтобы никого не «наказывать» необоснованно. Кроме того, эксплуатационные требования к персоналу и пользователям должны оставаться в пределах их компетенции – например, если система сложна, следует обучить персонал, иначе от них несправедливо требовать безошибочного использования.
Светские кодексы этики ИИ содержат близкие идеи под флагом справедливости (fairness[44]) и непричинения чрезмерного вреда. Они требуют, чтобы ИИ-системы были справедливыми, не нарушали права и достоинство людей, а также чтобы ответственность и нагрузка, связанная с их внедрением, распределялась соразмерно полномочиям – это коррелирует с исламским принципом меры и отсутствия чрезмерного бремени.
7. Принцип маʿруф и мункар (аль-ма’руф ва-ль-мункар)
В исламской этике один из базовых постулатов гласит: «повелевать одобряемое и удерживать от предосудительного». Маʿруф означает все признанное добро, соответствующее шариату и здравому смыслу, а мункар – все зло и порок, осуждаемые религией. Матурудиты, как и другие суннитские богословы, рассматривают общественную ответственность за поддержание добра и пресечение зла как коллективную обязанность мусульманского общества.
Данный принцип напрямую применим к сфере ИИ, задавая нравственный вектор: любые технологии должны способствовать распространению маʿруф (блага, полезности) и предотвращать или по крайней мере не облегчать мункар (вред, несправедливость). На этапе проектирования это означает, что цели создания и обучения модели ИИ должны быть этически нейтральными или позитивными – например, системы, усиливающие социальную пользу (медицина, образование), соответствуют маʿруф, тогда как разработки, предназначенные для заведомо греховных или вредоносных целей (манипуляции сознанием, азартные игры, харам-контент), противоречат этому принципу и не должны получать поддержку мусульманских специалистов. При внедрении уже созданных ИИ-систем необходимо регламентировать их использование так, чтобы они не стали орудием зла: введение правил использования, фильтров контента, ограничений по лицензии на вредоносное применение – все это примеры реализации «удерживания от порицаемого». На этапе эксплуатации конечные пользователи и общество в целом несут ответственность за то, как используется ИИ: например, если алгоритм машинного обучения выявил уязвимость, его нельзя применять для мошенничества, вместо этого знание должно послужить устранению проблемы (т.е. поддержанию добра).
В большинстве светских кодексов этики содержится аналогичная установка на благотворное использование ИИ и недопущение его применения во зло. Принцип «do good[45]» и не навреди (non-maleficence[46]), присутствующий в различных формулировках (например, в принципах Асиломара или рекомендациях IEEE), по сути перекликается с исламской обязанностью насаждать хорошее и предотвращать дурное, хотя и выражен в более светских терминах.
8. Критичность к источникам и проверка достоверности (ас-сика би-ль-масадир)
Исламская научная традиция выработала строгие критерии доверия к источникам знаний. В частности, в хадисоведении развит институт иснада (цепочки передатчиков) и джарх-тадиля (проверки надежности передатчиков), благодаря чему мусульмане отличали достоверные предания от слабых. Матурудиты в теологии также придавали значение эпистемологической надежности: утверждения веры основываются либо на ясном тексте откровения, либо на очевидном разуме, но не на сомнительных сообщениях.
Применительно к технологиям ИИ данный принцип означает необходимость критически относиться к исходным данным, моделям и выводам алгоритмов, проверяя их достоверность. На этапе обучения системы следует уделять пристальное внимание тому, из каких источников данных она извлекает знания: данные должны быть проверены на качество, репрезентативность и отсутствие искажения (аналогично тому, как мухаддисы отбирали только заслуживающие доверия сообщения). При развертывании ИИ в сфере, связанной с рисками (медицина, правовые решения), необходимо предусмотреть механизмы аудита и валидации: алгоритм должен проходить независимую экспертизу, подтверждающую корректность его работы, прежде чем ему доверят ответственные решения. Это соотносится с исламским требованием убедиться в истинности сведений перед вынесением суждения или постановления фетвы. На уровне пользователя принцип проявляется в том, что человек не должен слепо доверять каждому выводу ИИ: необходимо проверять результаты на здравый смысл, сопоставлять с другими источниками информации. Мусульманским ученым уже вынесены соответствующие суждения: например, в фетвах подчеркивается, что использование переводов Корана, выполненных ИИ, недопустимо без проверки квалифицированными богословами, дабы избежать ошибок в понимании Писания.
Современные светские нормы разработки ИИ также содержат схожие положения – они требуют прозрачности (transparency[47]) в происхождении данных и алгоритмов, а также возможности верификации результатов (например, принцип объяснимости – explainability[48]). Это отражает тот же подход, что и в исламской науке: признавать ценность только проверенной информации и сохранять скептическое отношение к непроверенным данным.
9. Мудрость и предосторожность (аль-хикма ва-т-тахарруз)
Ислам поощряет действовать мудро (хикма) и проявлять предусмотрительность, избегая сомнительных ситуаций во избежание греха. Матурудитская акыда, будучи умеренно-рационалистической, подчеркивает важность обдуманных решений: верующему надлежит взвешивать последствия своих действий и остерегаться поступков, которые могут привести к пороку или несправедливости. Принцип предосторожности опирается на хадис: «Оставь внушающее тебе сомнение (и обратись) к тому, что сомнений у тебя не вызывает, ведь, поистине, правда это спокойствие, а ложь — сомнение»[49] (ат-Тирмизи) – то есть лучше воздержаться от сомнительного, чтобы не впасть в запретное.
В сфере ИИ этот принцип трансформируется в превентивный этический подход к технологиям. На этапе создания и тестирования системы важно предвидеть возможные негативные сценарии применения алгоритма и заложить защиту от них: например, проводить строгие испытания (stress-tests[50]), анализировать риски и не запускать ИИ в критически важных областях без достаточных гарантий надежности. Здесь проявляется «предосторожность» – аналог принципа precautionary principle[51]: лучше задержаться с внедрением, чем выпустить непродуманную технологию, способную навредить. При внедрении в эксплуатацию мудрость диктует устанавливать ограничения на использование ИИ там, где велика неопределенность последствий. Например, вплоть до получения убедительных доказательств безопасности, автономные автомобили ограничивают испытаниями на закрытых полигонах. Также стоит разработать аварийные протоколы на случай сбоя (fail-safe[52]), исходя из предпосылки «что может пойти не так – рано или поздно пойдет». На этапе конечного использования пользователи и специалисты должны сохранять бдительность: мониторить работу ИИ, обучаться правильно трактовать его рекомендации и при малейших подозрениях на ошибку вмешиваться.
Многие светские руководства фактически закрепляют аналог данного принципа, призывая к осторожному и поэтапному внедрению ИИ. Например, требование обязательного тестирования, оценки рисков, принцип «Responsible AI» – всё это разновидности мудрого и осмотрительного подхода, близкого по духу к исламской хикма (мудрости) и тахарруз (бережному отношению к моральным рискам).
10. Упование на Аллаха (ат-таваккул ‘аля Аллах)
Таваккул – это упование на Аллаха, глубинное доверие к Нему при одновременном приложении максимума усилий со стороны человека. В матуридизме таваккул не означает фатального бездействия; напротив, человек обязан сделать все от него зависящее, а результат вверить воле Всевышнего. Известен поучительный случай из жизни пророка Мухаммада ﷺ: когда один бедуин спросил, следует ли ему привязать верблюда или достаточно уповать на Аллаха, Пророк ответил: «Привяжи своего верблюда и уповай на Аллаха»[53]. Этот хадис ярко иллюстрирует гармонию между предприимчивостью и доверием Богу.
Применительно к ИИ принцип таваккул проявляется, во-первых, в том, что мусульмане, создающие или использующие технологии, должны делать всё от них зависящее для правильного, халяльного и безопасного использования ИИ – то есть активно выполнять свой долг. На этапе разработки это означает добросовестно реализовывать все требования безопасности и морали, не «уповая» на то, что «как-нибудь само получится»; разработчик несет ответственность, но исход дела – в руках Всевышнего. При внедрении в эксплуатацию важно не впадать в гордыню от достигнутых успехов, а понимать, что даже при самом тщательном планировании остаются факторы, неподконтрольные человеку. Необходимо уповать на Аллаха, прося блага от нового инструмента и защиты от вреда, но одновременно быть готовым принять испытания, если что-то пойдет не так. На стадии использования конечные пользователи-мусульмане также придерживаются таваккула: доверяя Божьему предопределению, они не возлагают на ИИ чрезмерных надежд и не приходят в отчаяние, если технология не дала желаемого эффекта. Проще говоря, верующий видит в ИИ лишь средство, а не гарантию успеха, и полагается на помощь Аллаха в достижении благих целей.
Прямого аналога этому духовному принципу нет в светских кодексах, поскольку таваккул связан с верой. Упование на Аллаха остается уникальной чертой исламского подхода, дополняющей технические меры человеческой надеждой на божественное руководство.
11. Обязанность познания истины разумом (талаб аль-ма’рифа би-ль-акль)
Матурудитская доктрина утверждает, что человек не только способен, но и обязан посредством разума познавать основополагающие истины – в первую очередь истину о существовании Единого Бога. В отличие от ряда других школ, матуридиты полагают, что даже без ниспослания пророков разумный человек ответственен за поиск истины о Творце и различение добра и зла. Аль-Матуриди ясно говорил: люди, обладающие интеллектом, обязаны задуматься о происхождении мироздания и, используя свой ум, прийти к верным выводам о Боге и морали. Такой рациональный объективизм проявляется и в том, что в день Суда человеку вменяется в вину невежество, если он имел возможность узнать истину, но пренебрег ею.
Применение этого принципа к этике ИИ можно сформулировать как долг познавать и понимать новые технологии, стремясь к истине и добру. На этапе исследований и разработки мусульманские ученые и инженеры должны проявлять инициативу в изучении ИИ: с одной стороны, глубоко разбираться в самой технологии (чтобы не использовать ее вслепую), с другой – постоянно соотносить новшества с исконными истинами веры, критически оценивая, не противоречит ли новая информация базовым моральным принципам. При внедрении новых алгоритмов в обществе Ислам призывает к просвещению: необходимо обучать специалистов и население тому, как правильно пользоваться ИИ, доносить до сознания людей истину о возможностях и ограничениях технологий, чтобы предотвратить как неоправданный технооптимизм, так и иррациональные страхи. Это своеобразное обретение знания об ИИ, без которого его применение может быть ошибочным или греховным. На этапе эксплуатации конечный пользователь также несет ответственность использовать разум: он обязан стараться понять логику работы алгоритма (насколько это возможно), задавать вопросы о надежности и этичности получаемых результатов и не поддаваться на ложь или манипуляции, которые могут скрываться за эффектными технологическими решениями. Таким образом, в исламском подходе использование ИИ должно сопровождаться непрерывным поиском достоверного знания о нем и о связанных с ним последствиях – это рассматривается почти как религиозное обязательство, часть общей обязанности искрения истины.
Светские принципы прямо не говорят об обязанностях познания в моральном плане, однако в профессиональной и научной этике существует сходное понятие due diligence[54] – старательного изучения объекта перед его применением. Кроме того, ценность рационального критического мышления высоко ставится в образовании и технике безопасности: специалистов обязывают проходить обучение, сертификацию, непрерывно повышать квалификацию перед работой с новой технологией. Эти требования по духу близки к матуридитскому идеалу – задействовать данный Богом разум для постижения истины и правильного применения знаний на благо человечества.
Выводы по разделу 2.1.
Выше были кратко рассмотрены одиннадцать основополагающих принципов матуридитской акыды, которые способны задавать теологические и этические ориентиры для проектирования, внедрения и эксплуатации систем искусственного интеллекта. Каждый из них, отражая фундаментальные положения исламского вероубеждения позволяет по-новому осмыслить ответственность человека в цифровую эпоху.
Автор настоящей работы осознаёт, что представленный анализ является лишь первой и весьма скромной попыткой взглянуть на современные технологические вызовы с позиции матуридитской теологии. В силу новизны предмета и ограниченности объёма дипломного исследования, многие аспекты остались за пределами рассмотрения или затронуты лишь в общей форме. Безусловно, будущие поколения мусульманских исследователей, теологов, специалистов в области искусственного интеллекта и исламской этики смогут внести ценные дополнения, уточнения и необходимые коррективы к этому направлению.
Тем не менее уже сейчас ясно: разработка богословски обоснованного подхода к технологиям ИИ — это не только научная, но и коллективная обязанность уммы (фард кифая). В условиях стремительного развития технологий искусственного интеллекта и их повсеместного проникновения в ключевые сферы человеческой жизни —мусульманская умма не может оставаться в пассивной роли потребителя. Необходима активная интеллектуальная позиция, основанная на принципах шариата и фундаментальных положениях акыды. Исламская теология, в особенности матуридитская традиция с её акцентом на разум, ответственность и божественную справедливость, способна предложить человечеству не только критику существующих подходов, но и позитивную концептуальную альтернативу. Это путь, основанный на глубоком осознании единства Творца, ответственности человека и неизменности вероубеждений, применимых и в самых новых областях — включая искусственный интеллект.
2.2. Принципы ханафитского фикха, применимые в регулировании технологий ИИ
В данном разделе проводится системный анализ тирдцати восьми принципов ханафитского фикха, применимых к регулированию технологий искусственного интеллекта. Каждый принцип сначала раскрывается с точки зрения его значения в исламском праве (ханафитского мазхаба), затем анализируется его релевантность для различных этапов жизненного цикла ИИ (проектирование, обучение, внедрение, эксплуатация), и наконец делаются выводы о наличии аналогичных положений в современных светских этических кодексах ИИ либо подчеркивается уникальность исламского подхода.
- Принцип намерения (النِّيَّةُ). В исламском праве намерение (ниях) определяет морально-правовую квалификацию действия: «Дела оцениваются по намерениям». Иными словами, каждое действие или решение рассматривается сквозь призму той цели, которую преследовал человек. В ханафитском фикхе данный принцип означает, что юридические последствия зависят от искреннего намерения субъекта, а не только от внешней формы поступка. Например, договор или поступок приобретает свой правовой статус на основе того, какая цель вкладывалась в него совершившим лицом. Этот принцип подкреплён известным хадисом Пророка Мухаммада ﷺ: «Воистину, дела — по намерениям, и каждому человеку воздастся согласно его намерению»[55].
Применительно к технологиям ИИ принцип намерения требует, чтобы на этапе проектирования и разработки закладывались благие цели использования алгоритмов. Разработчики и организации должны чётко формулировать, ради какого блага создаётся система ИИ — например, для облегчения жизни людей, защиты здоровья или улучшения эффективности процессов — и избегать злонамеренных целей (как то нарушение прав, причинение вреда или нечестная выгода). На этапе обучения и внедрения важно следить, чтобы фактическое применение ИИ соответствовало изначально заявленным благим намерениям. Если намерение использования изначально было этичным (например, помощь человеку), то и конфигурация системы должна отражать эти ценности. В эксплуатации ИИ-систем принцип намерения переводится в практику как требование прозрачности и согласованности цели и средства: действие ИИ должно соответствовать той благой цели, ради которой его внедрили.
В современных светских кодексах этики ИИ прямого аналога этому принципу обычно нет — светская этика фокусируется больше на последствиях и нормах, чем на мотивах создателей. Тем не менее, идея ориентации ИИ на благо человека отчасти отражает схожую установку на благие цели разработки, хотя исламский акцент на намерение является более уникальным и внутренне-нравственным требованием.
- Базовый принцип дозволенности (الأَصْلُ فِي الأَشْيَاءِ الإِبَاحَةُ). Этот фундаментальный постулат гласит, что изначально все вещи и действия дозволены, пока не появится явное доказательство их запрета. Ханафитский мазхаб, как и большинство исламских школ, исходит из презумпции дозволенности во всех мирских делах: «каждая полезная вещь на земле разрешена для человека, если нет доказательства ее запрета». Иными словами, по умолчанию любое новое явление или технология считается халяль (дозволенной), если только на неё не указывает прямой запрет в Коране, Сунне или ясно выведенный принцип шариата.
В контексте ИИ данный принцип означает, что разработка и применение новых технологий искусственного интеллекта изначально считаются допустимыми с точки зрения шариата. Нет общего запрета на ИИ как таковой: каждая новая программа, алгоритм или устройство рассматривается нейтрально или даже положительно, пока не выявлено, что она используется для запрещённой цели или приводит к недопустимым последствиям. Такой подход стимулирует инновации: мусульманским разработчикам позволено исследовать и внедрять ИИ-решения, считая их халяль, если они не противоречат конкретным нормам религии. Однако принцип дозволенности не абсолютен — если в процессе эксплуатации обнаруживается, например, что ИИ-система причиняет серьёзный вред людям, нарушает чьи-то права или используется в заведомо харамных сферах (скажем, для азартных игр, процентного ростовщичества, распространения порнографии и т.д.), то применяются другие принципы, ограничивающие её. Таким образом, базовый принцип призывает сначала видеть в технологиях ИИ благо и разрешённость, но быть готовым наложить ограничения при появлении доказанного вреда или несовместимости с нормами.
В современных светских подходах похожая презумпция тоже фактически действует: новое технологическое решение обычно дозволено законом, пока не выявлены серьёзные риски, хотя в кодексах этики ИИ это обычно не формулируется явно. Исламский же подход подчёркивает эту изначальную свободу созидания во благо, устанавливая одновременно ответственность проверить, не вступает ли новшество в конфликт с основополагающими запретами.
- Принцип уверенности (اليَقِينُ لا يُزَالُ بِالشَّكِّ). Это правило утверждает: «установившаяся достоверность не устраняется сомнением». Иначе говоря, если нечто подтверждено наверняка, возникшие впоследствии сомнения или предположения не должны отменять первоначальное уверенное знание. В ханафитском праве данная каида означает, что ранее существовавший статус или факт остаётся в силе, пока не появилось столь же достоверное опровержение.
В применении к ИИ принцип уверенности требует принятия решений на основе проверенных данных и надёжных знаний, а не на основе неопределённых догадок. На этапе разработки и тестирования системы ИИ это означает, что уже верифицированные свойства и корректность алгоритма должны считаться действительными, пока не появится убедительное свидетельство обратного. Например, если модель ИИ при испытаниях демонстрирует безопасность и точность, то не следует прекращать её использование из-за абстрактных опасений, не подкреплённых фактами. Напротив, если надёжно выявлена проблема (скажем, обнаружена конкретная серьёзная уязвимость), её нельзя игнорировать, ссылаясь на сомнения — нужно считать её реальной угрозой и устранять. Принцип уверенности также побуждает различать факты и вероятности при работе ИИ: решения, принимаемые алгоритмом, должны проверяться на достоверность, особенно если они противоречат тому, что уже известно наверняка. При эксплуатации системы операторы не должны менять установленный рабочий режим на основе слухов или единичных нестатистических случаев, пока анализ не подтвердит проблему.
В светской этике прямого формулирования этого принципа обычно нет, но его дух прослеживается в требованиях обоснованности и доказательности: например, подход evidence-based[56] (основанный на доказательствах) при оценке рисков ИИ соответствует этому правилу. Аналогией служит и юридическая презумпция невиновности: пока нет достоверных доказательств вины (вреда), сохраняется прежний статус (дозволенность, безопасность). Таким образом, исламский принцип уверенности поощряет взвешенный и фактологичный подход к регулированию ИИ, избегая поспешных решений на основании одних предположений.
- Принцип устранения вреда (لا ضَرَرَ وَلا ضِرَارَ / الضَّرَرُ يُزَالُ). Исламское право провозглашает категорический запрет на причинение несправедливого вреда: «Нет вреда и нет воздаяния вредом» (хадис) – никто не должен вредить ни себе, ни другим умышленно. Из этого извлекается общее правило: любое выявленное зло или ущерб подлежат удалению. В ханафитском фикхе данная норма означает обязанность устранять или минимизировать вред, когда он обнаружен, и запрещение действий, заведомо приводящих к ущербу без оправданной причины. Если правило дозволенности (п.2) устанавливает свободу действий, то принцип «لا ضرر» вводит границу этой свободы: она заканчивается там, где начинается существенный вред для личности или общества. Классическая юриспруденция развивает это в максиму: «الضَّرَرُ يُزَالُ» – вред должен быть устранён, даже если для этого приходится пойти на ограничение некоторых свобод или преимуществ.
Применительно к технологиям ИИ принцип устранения вреда предписывает на всех этапах жизненного цикла выявлять потенциальные негативные последствия и активно их предотвращать. На стадии проектирования разработчики обязаны закладывать безопасность системы, чтобы её функции не наносили ущерб людям – физическому здоровью, психике, имуществу или правам. Этический аудит на этапе обучения должен проверять, не содержат ли обучающие данные предвзятости или элементов, которые могут привести к дискриминации либо иному вреду для определённых групп пользователей. При внедрении и эксплуатации ИИ-технологий исламский подход требует постоянного мониторинга: если выясняется, что применение алгоритма начинает причинять вред (например, аварии с участием автономного транспорта, утечка приватных данных, неправомерное увольнение сотрудников из-за ошибок алгоритма), то необходимо либо изменить параметры системы, либо вовсе приостановить её использование. Недопустимо сознательно сохранять в работе ИИ, от которого исходит значительный вред, ссылаясь на его полезность или вложенные средства.
Современные светские принципы этики ИИ во многом сходятся с этим требованием: в различных кодексах упоминаются принципы безопасности, «non-maleficence»[57] (непричинение зла) и защиты благополучия человека. Таким образом, устранение или предотвращение вреда – один из ключевых аспектов как исламского, так и секулярного подхода к этичному ИИ, но в исламском кодексе этот принцип возведён в абсолютное требование, подкреплённое религиозно-нравственной обязанностью.
- Принцип облегчения при затруднении (المَشَقَّةُ تَجْلِبُ التَّيْسِيرَ). Этот правовой постулат означает: «трудность влечёт облегчение». В основе его лежит убеждение, что шариат предназначен не для чрезмерного усложнения жизни людей, а наоборот – при наступлении чрезвычайных затруднений предписания облегчаются. Ханафитская и другие школы права признают: если выполнение нормы связано с серьёзной практической сложностью или ущербом для человека, то применяются послабления (рухсы). Важно, что послабление даётся именно при объективной чрезмерной сложности соблюдения нормы, а не из-за каприза – принцип не отменяет запреты, но временно облегчает нагрузку на человека, чтобы предотвратить ещё больший вред.
В сфере ИИ принцип облегчения при затруднении может проявляться в адаптивности требований и нормативов. С исламской точки зрения, регулирование технологий не должно создавать излишних барьеров для развития, если соблюдение всех идеальных требований сразу оказывается практически невыполнимым или крайне обременительным. Например, малым стартапам или странам с ограниченными ресурсами может быть предоставлен более простой путь соответствия исламским стандартам ИИ, без ущерба для основ безопасности, – аналогично тому, как шариат учитывает возможности и обстоятельства исполнителя. Если внедрение какого-то правила в систему ИИ в конкретной ситуации сопряжено с большими трудностями и затратами, исламский подход допускает временное упрощение – разумеется, только до уровня, не ставящего под угрозу фундаментальные ценности. Более того, сам ИИ рекомендуется использовать для снятия затруднений с людей: развитие вспомогательных технологий для инвалидов, автоматизация тяжёлого труда, аналитика для принятия решений – всё это соответствует духу шариата, стремящегося облегчить полезные активности.
В светских кодексах напрямую данный принцип не сформулирован, хотя ему созвучны идеи пропорциональности регулирования и доступности технологий. Уникальность подхода шариата в том, что облегчение возводится в принцип права: при наличии объективной сложности цель – не сломить, а поддержать развитие, смягчив требования без ущерба для основополагающих норм.
- Принцип необходимости (الضَّرُورَةُ تُبِيحُ المَحْظُورَاتِ). Эта каида гласит: «крайняя необходимость делает разрешённым запретное». В исламском праве понятие «дарура» (необходимость, угроза жизненно важным интересам) служит основанием для временного снятия некоторых обычных запретов, в той мере, в какой это нужно для спасения жизни или предотвращения катастрофического вреда. Классический пример – дозволенность съесть запретную пищу, чтобы не умереть с голода.
В сфере ИИ принцип необходимости означает, что в чрезвычайных обстоятельствах допускается отступление от некоторых этических либо правовых ограничений ради защиты более фундаментальных ценностей. Например, если использование определённой AI-технологии обычно ограничено из соображений приватности или этики, но возникает ситуация угрозы жизни людей (террористическая атака, стихийное бедствие), исламский подход оправдывает временное применение этой технологии, даже если она вторгается в приватность, – при условии, что это действительно необходимо для спасения жизни и нет альтернатив. Ещё пример: если для обучения медицинской модели требуются данные, которые обычно получить сложно из-за законов о конфиденциальности, в условиях эпидемии может быть сделано исключение, чтобы быстро разработать спасающее жизни решение. Важно подчеркнуть, что такие послабления ограничены рамками необходимости: как только критическая ситуация проходит, запреты снова вступают в силу в полном объёме. Принцип «الضرورة» предотвращает ригоризм[58] там, где он мог бы привести к гибели или крупному ущербу, при этом не отменяя сами нравственные нормы, а лишь приостанавливая их действие на время кризиса.
В светских подходах аналогичные идеи отражены в понятиях чрезвычайного положения и “необходимой обороны”: например, законы допускают временное нарушение некоторых прав или процедур ради общего блага при чрезвычайных ситуациях. Хотя эти ситуации оговорены отдельно, в основе их лежит тот же принцип – крайняя необходимость оправдывает временное отступление от правил. Исламский же кодекс прямо включает этот принцип, задавая чёткие моральные ориентиры, когда и как можно воспользоваться исключением ради сохранения высших ценностей (жизни, здоровья, безопасности общества).
- Принцип прощения ошибки и принуждения (رَفْعُ الْخَطَإِ وَالنِّسْيَانِ وَالإِكْرَاهِ). Ислам признаёт отсутствие вины в действии, совершённом по ошибке, из-за забывчивости или под внешним принуждением. Известен хадис: «Воистину, Всевышний освободил (мою общину) от ответственности за ошибки, забывчивость и то, к чему их заставили силой». В ханафитском и общем исламском праве из этого следует, что человек не несёт греха и не подлежит наказанию за непреднамеренное нарушение, за то, что сделано без сознательного выбора (в состоянии забвения), либо под угрозой. Этот принцип отражает милость и справедливость шариата: не ставить человеку в вину то, что он не контролировал.
В контексте ИИ данный принцип предполагает более снисходительный подход к ошибкам и сбоям, произошедшим не по злому умыслу, а по стечению обстоятельств. Если разработчик допустил ошибку в коде, не предвидя её вредных последствий, исламская этика не приравнивает его к злоумышленнику – при условии, что обнаружив проблему, он приложит все силы к её исправлению (иначе вступает принцип ответственности). Аналогично, оператор системы ИИ, который ненамеренно использовал данные неверно или забыл обновить модель, заслуживает прощения и возможности исправить оплошность, а не мгновенного наказания, особенно если он сам уведомил о проблеме. Принцип также релевантен, когда специалисты действуют под давлением руководства или властей: если они вынужденно внедрили функцию ИИ, понимая её этическую сомнительность, их личная вина смягчается фактором принуждения (хотя это не оправдывает сам вред – но осуждение в адрес истинного инициатора должно быть сильнее).
В светском праве подобные идеи проявляются через понятия «mens rea»[59] (умысел как условие вины) и различение умышленных и неумышленных правонарушений. Этика ИИ в техническом сообществе также всё чаще говорит о культуре «just culture»[60], где ошибки рассматриваются как повод для обучения и улучшения системы, а не для наказания, если не было злого умысла. Таким образом, исламский принцип прощения ошибок призывает к справедливому учёту человеческого фактора при регулировании ИИ: не карать невиновных, а исправлять и предупреждать ошибки, возлагая основную ответственность на сознательные решения, а не на непреднамеренные промахи.
- Принцип справедливости (العَدْلُ). Справедливость – краеугольный камень исламского мировоззрения и права. Аллах в Коране неоднократно повелевает творить справедливость (например, Коран 16:90)[61], а Пророк ﷺ в хадисах осуждает любое проявление несправедливости. В юридическом смысле принцип аль-адль требует беспристрастного и равного отношения ко всем, воздаяния каждому по заслугам и соблюдения прав без перекосов.
Применительно к ИИ принцип справедливости требует, чтобы технологии разрабатывались и применялись без необоснованного ущерба или предпочтения для каких-либо групп людей. Алгоритмы должны проходить оценку на отсутствие заложенной предвзятости: например, системы принятия решений в рейтинге, найме или судопроизводстве должны быть обучены на сбалансированных данных, чтобы не дискриминировать по признакам расы, пола, религии или социального положения. Внедрение ИИ не должно приводить к увеличению неравенства – наоборот, с исламской точки зрения желательно, чтобы выгоды от новых технологий распределялись справедливо между различными слоями общества, а не концентрировались у узкой элиты. Управление ИИ (AI governance) тоже должно быть справедливым: все заинтересованные стороны – от разработчиков до пользователей – должны иметь возможность высказать свои опасения, и их права должны уважаться. Если ИИ-система наносит ущерб, принцип справедливости требует компенсировать пострадавших и привлечь виновных к ответственности (в рамках принципа ответственности).
Современные светские этические кодексы ИИ также придают огромное значение справедливости и недискриминации: fairness[62] фигурирует среди ключевых ценностей, наряду с прозрачностью и ответственностью. В отличие от некоторых иных принципов, здесь наблюдается почти полное совпадение: обеспечение справедливости в ИИ является универсальной целью, хотя исламский подход коренится в божественном повелении к справедливости, придавая ей духовно-нравственную обязательность.
- Принцип ответственности (الضَّمَانُ / المَسْؤُولِيَّةُ). В исламском праве каждый субъект несёт ответственность за последствия своих действий. Термин «даман» (гарантия) означает обязанность возместить ущерб, причинённый лицом: если кто-то повредил чужое имущество или здоровью, он обязан покрыть убытки. Понятие «мас’улия» (ответственность) шире и включает моральную и юридическую подотчётность за свои решения.
В отношении ИИ принцип ответственности означает, что разработчики, владельцы и операторы систем ИИ должны быть чётко идентифицированы в качестве ответственных за работу этих систем. Исламский кодекс не признаёт идею полного «снятия ответственности» на машину: хотя ИИ может действовать автономно, моральная и юридическая ответственность за его решения ложится на тех, кто его создал и запустил. Если алгоритм причинил вред – будь то авария беспилотного автомобиля, неправильный диагноз медицинского ИИ или утечка данных – именно человеческие управляющие субъекты обязаны взять на себя ответственность: разъяснить причину, устранить проблему и компенсировать убытки пострадавшим. Это созвучно принципу «human-in-the-loop», требующему участия и контроля человека. Внедряя ИИ, компания или госорган по Исламу несёт аманат (доверенную обязанность) – ответственность перед Богом и обществом за надлежащее применение технологии.
В современном светском дискурсе похожее требование выражено термином «accountability» – подотчётности: в перечнях принципов ИИ обычно указывается, что системы должны иметь ответственных лиц и механизмы отчётности. Различие лишь в том, что Ислам придаёт этому принципу и религиозное измерение: ответственность рассматривается не только как правовая норма, но и как нравственный долг перед Всевышним, особенно за применение мощных технологий, способных влиять на судьбы людей.
- Принцип соответствия цели и средства (الوَسَائِلُ لَهَا أَحْكَامُ المَقَاصِدِ). Данный принцип утверждает, что средства по своей правовой оценке разделяют статус цели, которой они служат. Иными словами, цель определяет окраску средств: если конечная цель обязательна или похвальна, то и действия, ведущие к ней, получают аналогичный хукм (правовой статус); и наоборот, дурная или запретная цель делает греховными даже внешне нейтральные шаги к её достижению. Этот принцип тесно связан с намерением (п.1): значение поступка оценивается не только по форме, но и по той цели, ради которой он совершается. Ханафитские источники учат, что нельзя отделить средства от их максад (намеренной конечной цели). Например, если помощь бедным – обязательная цель, то сбор средств и организационные шаги для этого тоже становятся обязательными в меру необходимости. Если же кто-то берёт в руки вещь с намерением совершить харам (скажем, купить виноград, чтобы сделать вино), его действие получает хукм запрещённого из-за цели, даже если само по себе не запрещено. Таким образом, морально-правовая оценка “путей” зависит от того, куда эти пути ведут.
В применении к ИИ принцип «цель определяет средства» требует оценивать разработку и использование алгоритмов с учётом их конечной цели. Создание системы ИИ не нейтрально: оно берёт свой этический статус из того, для чего эту систему предполагается применять. Если цель благородна – например, улучшение медицины, образование, облегчение труда – то и разработка такого ИИ считается похвальной, возможно, даже обязательной (как часть коллективной обязанности делать общественно полезные открытия). Если же цель предосудительна – массовое нарушение приватности, пропаганда порока, создание оружия для несправедливой агрессии – то вовлечение в подобные проекты само по себе греховно, даже если работа инженера выглядит “технически нейтральной”. Исламский подход требует от специалистов задаваться вопросом: “Какой конечной цели служит моя технология?” и соотносить свои действия с нравственной оценкой этой цели. В регулировании ИИ это выливается в то, что разрешения и запреты устанавливаются не только по характеристикам технологии, но и по контексту и намерениям её использования.
Светская этика зачастую декларирует принцип “благие цели не оправдывают аморальных средств” – это обратная сторона нашего правила. Современные кодексы требуют, чтобы даже во имя полезной цели разработчики не нарушали базовых этических норм. Здесь налицо общая установка: нельзя отделять процесс создания/внедрения ИИ от результата, к которому он ведёт. Однако исламская перспектива идёт дальше, формализуя это как юридическое правило: ценностная оценка цели прямо переносится на средство. В итоге и регулирование ИИ по-шариатски было бы более целевым: один и тот же инструмент может быть разрешён или запрещён в зависимости от того, для чего его применяют.
- Принцип предотвращения средств к греху (سَدُّ الذَّرَائِعِ). Этот принцип дополняет предыдущий: если некоторый на первый взгляд дозволенный поступок служит “дверью” к запрету, то такая дверь должна быть закрыта. Садд ад-зараи’ переводится как “преграждение путей (к злоупотреблению)”. В исламском праве (особенно развито у маликитов и ханбалитов, но признаётся и ханафитами в определённых случаях) это означает: пресечь на корню те действия или средства, которые с высокой вероятностью приведут к хараму, даже если сами по себе они ещё не харам.
В контексте ИИ принцип предотвращения средств к греху призывает законодателей и разработчиков выявлять потенциально опасные направления использования технологий и вовремя вводить ограничения, чтобы греховное применение не стало массовым. Если какая-то AI-модель или программа сама по себе нейтральна, но известна своей пригодностью для запрещённых целей, исламский подход склоняется к её запрету или строгому контролю. К примеру, технология Deepfake[63]: её можно использовать для развлечения, но также она даёт средства для массового обмана, клеветы и порнографии. Принцип предотвращения велит не ждать, пока зло распространится, а заранее ограничить доступность и применение deepfake-алгоритмов – вплоть до уголовного запрета их злонамеренного использования. Аналогично, разработки в области полностью автономного оружия или тотальной слежки могут признаваться слишком опасными по своим возможным последствиям, чтобы их свободно позволять: шариат бы поставил “блок” на такие направления, видя прямой путь к несправедливости.
В современных светских стратегиях есть схожие черты: например, регулирующие органы предлагают запретить отдельные применения ИИ, которые почти наверняка нарушают права (социальный рейтинг граждан, неразрешённое распознавание лиц в реальном времени и пр.). Хотя в секулярных кодексах это не всегда возводится в общий принцип, идея предотвращения злоупотреблений заранее присутствует. Исламский подход институционализирует её как обязанность: упредить грех, “перекрыв кислород” на стадии средства. В результате регулирование ИИ на основе данного принципа предполагает проактивный запрет тех технических возможностей, которые в перспективе принесут больше греха и вреда, чем пользы.
- Принцип приоритета пользы (المَصْلَحَةُ) над вредом (المَفْسَدَةُ). Цель исламского закона – принесение максимальной пользы людям и минимизация зла. Данный принцип утверждает, что при оценке действий следует ориентироваться на суммарный баланс пользы и вреда, стремясь преумножить первое и снизить второе. Если конкретное решение несёт и выгоды, и ущерб, шариат сравнивает их вес. Как отмечают ученые, «если польза преобладает над вредом, то разрешение предпочтительнее, ибо превалирующая польза перевешивает меньший вред». И напротив, когда зло и порча преобладают, дело подлежит запрету. В ханафитском фикхе эта идея проявляется в опоре на маслаха (общественный интерес) при вынесении новых суждений: всё, что способствует сохранению пяти основополагающих ценностей (религии, жизни, разума, имущества, потомства) и не противоречит текстам Писания, рассматривается благом, которое следует поддержать.
В отношении ИИ принцип приоритета общественной пользы означает, что развитие технологий должно оцениваться по тому, насколько оно улучшает благосостояние и отвечает нуждам людей в сравнении с возможными негативами. Если определённое приложение ИИ сулит значительные преимущества – спасение жизней (например, диагностика заболеваний), экономию ресурсов, повышение образования – и при этом сопряжено лишь с умеренными и управляемыми рисками, исламское право склоняется одобрить и даже рекомендовать его, считая преобладающую пользу достаточным обоснованием. Такой подход побуждает активно использовать ИИ для достижения целей макасид шариа’а – защиты жизни, разума, справедливости в обществе – при условии отсутствия прямых нарушений религиозных запретов. С другой стороны, если новая технология несёт больше разрушительных последствий (мафасид), чем конструктивных плодов, её внедрение должно быть пересмотрено или запрещено. Например, если массовое внедрение какого-то алгоритма улучшит удобство сервиса, но при этом приведёт к безработице миллионов без компенсации – такой “прогресс” противоречит исламской концепции блага.
Современные этические подходы к ИИ также провозглашают необходимость максимизации общественного блага (Beneficence) и учёта соотношения выгоды/риска при внедрении систем. Различие в том, что ислам ставит эту идею на нормативную основу, объединяя её с моральными приоритетами шариата. В целом же ориентация на общественное благо – точка соприкосновения: и исламский, и светский подход стремятся, чтобы ИИ служил улучшению жизни, а не ухудшению.
- Принцип истихсан (الاِسْتِحْسَانُ). Истихсан переводится как «предпочтение (более хорошего)». В методологии ханафитского права это означает отступление от строго буквалистского применения общего правила или кияса в пользу более справедливого или целесообразного решения в конкретном случае. Ханафитские факихи используют истихсан, когда видят, что следование общей аналогии ведёт к чрезмерной жёсткости или противоречит скрытой цели закона – тогда они выбирают иной путь, опираясь на неявный довод, ради достижения лучшего результата, соответствующего духу шариата.
В регулировании ИИ принцип истихсан означает гибкость и готовность делать исключения из общих правил, когда того требует благо. Законодатели, вдохновляющиеся исламским подходом, не стали бы рабски следовать абстрактным принципам, если конкретная ситуация требует особого подхода. Например, общее правило может требовать полного запрета использования определённого датасета из-за нарушения конфиденциальности, но если в уникальном случае его ограниченное применение способно спасти жизни и при этом согласовано с заинтересованными лицами, может быть применён аналог «истихсана» – разовое разрешение при строгих условиях, ради достижения явного блага. Или наоборот, стандартная норма может позволять какой-то алгоритм, но видя, что в данном социальном контексте он принесёт несправедливость, регулятор может точечно его ограничить, вопреки общему правилу. Таким образом, исламский кодекс этики ИИ был бы не абсолютно жёстким, а предусматривающим механизм исключений во имя высших ценностей – при условии, что решение об истихсане принимается компетентным коллективным органом, аналогично шуре, а не произвольно.
В светской практике аналогом можно считать принцип equity[64] или возможность регулятивных “сандбоксов” и исключений для инноваций, когда во имя общественной пользы временно отступают от буквы правил. Хотя терминологии истихсана секулярные кодексы не знают, функционально идея – обеспечить разумную гибкость там, где твёрдое правило дало бы не оптимальный результат – имеет универсальную ценность.
- Принцип кияса (القِيَاسُ). Кияс – это метод аналогии в исламском праве, суть которого в распространении установленного шариатского положения с известного случая на новый, обладающий сходной существенной причиной (‘илла). Ханафитская школа считает кияс одним из основных источников (после Корана, Сунны и ижмы) для вынесения правовых заключений.
В применении к ИИ принцип кияса означает, что регулирование новых технологий должно опираться на аналогии с уже известными в исламском праве ситуациями. Поскольку прямых упоминаний искусственного интеллекта в классических текстах нет, факихи будут рассуждать так: “На что это похоже?” Например, ответственность за действия автономного робота может быть уподоблена ответственности владельца животного или инструмента (раз они действуют не по собственной воле, а по заложенной программе, аналогично тому, как животное следует инстинктам). Вопрос о правовом статусе данных можно сравнить с правом на информацию в классическом фикхе или с понятием имущества. Даже сама ИИ-система – можно ли считать её “лицом” или это лишь собственность владельца? – решается через кияс: в шариате есть категории недееспособных (малолетние, рабы в прошлом) или особо доверенных вещей, чье поведение влечёт ответственность хозяина. Аналогии такого рода позволят вынести решения о том, как трактовать поступки ИИ: как действия самого хозяина, либо как случайное событие, либо иным образом. Исламский кодекс этики ИИ, таким образом, не создается с нуля, а выводится из прецедентов – принцип кияса гарантирует преемственность и обоснованность норм.
Светское право тоже часто опирается на прецеденты и аналогии: юристы сравнивают ИИ, например, с юридическим лицом или с продуктом, проводя параллели для целей ответственности и регулирования. Хотя в этических манифестах секулярных такие методологические принципы не прописывают явно, фактически как исламские, так и светские эксперты используют аналогии для осмысления беспрецедентных технологических явлений.
- Принцип обязательности необходимых средств (مَا لا يَتِمُّ الوَاجِبُ إِلَّا بِهِ فَهُوَ وَاجِبٌ). Этот принцип формулируется так: «то, без чего не может быть выполнено обязательное, само становится обязательным». Он логически вытекает из идеи о целях и средствах (п.10), но фокусируется на обязанностях: если шариат предписывает некое как ваджиб (обязательное деяние), то всё необходимое для его осуществления приобретает статус ваджиб.
В контексте ИИ данный принцип означает, что если со стороны шариата или общества поставлены определённые обязательные требования к технологиям, то все шаги, без которых эти требования не выполнить, тоже становятся обязательными для исполнителей. Например, ислам предписывает охрану жизни и справедливость – значит, для разработчиков и операторов ИИ обязательно внедрять системы обеспечения безопасности и проверки справедливости алгоритмов, ведь без них нельзя гарантировать, что ИИ не нарушит жизнь или права людей. Если законы (или этический кодекс) обязывают избегать предвзятости в модели, то обязательным становится проведение аудита данных и обучение на репрезентативных выборках – иначе требование недостижимо. На уровне общества: если признано коллективной обязанностью (фард кифая) разработать собственные исламские стандарты ИИ или обучить экспертов-мусульман в этой области, то все мероприятия для этого (финансирование программ, создание учебных курсов и пр.) приобретают статус обязательных для общины. Принцип “ما لا يتم الواجب إلا به فهو واجب” исключает ситуацию, когда цель декларируется, но никто не берёт ответственности за подготовительные действия.
В светской практике эта идея известна неявно: например, нормативные акты часто подразумевают, что для соблюдения стандарта компания должна принять все нужные меры (то есть меры эти по сути обязательны). В инженерной этике также говорят: “если обязан обеспечить безопасность, обязан и провести тестирование, и внедрить протоколы”. Таким образом, исламский подход последователен: провозглашая обязательные принципы (безопасность, справедливость и т.д.), он параллельно требует и всех технических и организационных средств, необходимых для их воплощения при работе с ИИ.
- Принцип «доход с ответственностью» (الخَرَاجُ بِالضَّمَانِ). Это правило тесно связано с принципом ответственности (п.9) и уточняет его в коммерческо-правовом аспекте: «прибыль оправдана только при условии несения гарантии (риска)». Проще говоря, получать доход от чего-либо имеет право лишь тот, кто несёт бремя возможных потерь или убытков по этой же вещи. Данная каида восходит к хадису и выражается также формулой «аль-гунм биль-гурм» (выгода сопряжена с риском). В ханафитском праве на основе этого принципа выстраиваются честные финансовые отношения: нельзя требовать прибыли там, где ты не берёшь на себя ответственности.
Применительно к ИИ принцип «الخراج بالضمان» означает, что те, кто извлекает выгоду из использования алгоритмов, должны принимать на себя и риски, связанные с ними. Компания, внедряющая ИИ и сокращающая издержки благодаря автоматизации, не вправе заявлять, что за ошибки системы она не отвечает: напротив, раз она получила “гарантированный урожай” выгоды, на ней лежит и юридическое и финансовое обеспечение в случае сбоев. Если разработчик продаёт продукт ИИ за прибыль, он обязан поддерживать его надёжность и нести ответственность за дефекты. Этот принцип исключает безответственную модель “прибыль – мне, проблемы – обществу”: в исламской парадигме тот, кто владеет и управляет ИИ (получает от него пользу, доход, экономию), обязан покрывать и последствия его возможных ошибок или злоупотреблений.
В секулярном праве схожие идеи выражены в институтах гражданской ответственности производителя и строгой ответственности за вред от продукта: например, производитель автомобиля несёт ответственность за брак, поскольку он продавал машину с прибылью. В области ИИ сегодня тоже обсуждаются режимы ответственности разработчиков. Принцип “الخراج بالضمان” подкрепляет эти тенденции моральным правилом: нет прибыли без сопряжённой ответственности. Это мотивирует внедрять ИИ ответственно, с должным страхованием рисков и заботой о безопасности, ведь только тогда прибыль считается правомерной.
- Обязанность постоянного контроля (المُرَاقَبَةُ). В исламском мировоззрении мурокаба означает как “наблюдение извне”, так и “самонаблюдение”: верующий осознаёт, что Аллах всегда следит за делами людей, и потому сам держит свои поступки под контролем. Перенесённый в правовую плоскость, этот принцип требует неослабного надзора за ходом дел, чтобы предотвратить отклонения и злоупотребления. В исламском управлении предписано регулярно проверять состояние подопечных дел: будь то рынок (контроль честности торговли), судопроизводство или иная сфера – постоянный мониторинг и аудит соответствуют идеалу мурокабы. Не должно быть ситуации, когда после издания правила о нём забыли – нужно отслеживать выполнение.
Применительно к ИИ мурокаба проявляется в требовании непрерывного контроля и отслеживания работы алгоритмов на всех стадиях. Исламский кодекс этики ИИ подчеркнул бы, что внедрение системы – не конец ответственности, а начало постоянного наблюдения. Разработчики обязаны сопровождать свои продукты обновлениями и патчами, исправляя выявленные недостатки. Эксплуатирующие организации должны наладить системы мониторинга за метриками работы ИИ: точностью, ошибками, влиянием на пользователей. Если алгоритм используется для принятия решений, должна быть предусмотрена периодическая проверка корректности его выводов человеком или специальной комиссией. Принцип мурокаба означает также прозрачность: сбор логов, запись действий ИИ – чтобы в любой момент можно было проанализировать, что происходит “внутри чёрного ящика”.
Современные светские подходы приходят к схожему выводу: концепция “continuous monitoring”[65] и аудит алгоритмов после деплоя являются частью лучших практик управления рисками. Законопроекты, как европейский AI Act, требуют от производителей проводить пострыночный надзор за своими ИИ-системами. Таким образом, исламский принцип постоянного контроля полностью согласуется с технической необходимостью: технологии ИИ динамичны, и только неусыпный надзор гарантирует своевременное выявление проблем и их исправление в соответствии с этическими нормами.
- Принцип предотвращения зла первичнее пользы (دَرْءُ المَفَاسِدِ مُقَدَّمٌ عَلَى جَلْبِ المَصَالِحِ). Этот норматив дополняет принцип маслахи (п.12) важным уточнением: когда предотвращение вреда вступает в конкуренцию с получением пользы, приоритет отдаётся предотвращению зла. Иначе говоря, лучше отказаться от какой-то выгоды, если для неё приходится допустить серьёзное зло. В трактовке шариата это означает, что запрещается дело, в котором негативные последствия равны или превосходят позитивные, «поскольку устранение порчи ставится впереди привлечения пользы». Данная максима уберегает от оправдания вредных средств хорошими целями: даже если польза есть, но она не перевешивает вес злоупотреблений, действие не может быть одобрено.
В применении к ИИ принцип приоритета предотвращения вреда требует, чтобы проекты, сулящие определённую пользу, но сопряжённые с крупными рисками и вредом, пересматривались или запрещались. Если новая технология ИИ обещает удобство или прибыль, но одновременно несёт высокую вероятность ущемления фундаментальных ценностей (жизни, достоинства, веры людей), исламский подход велит предпочесть отказ от риска. Так, например, система массового распознавания лиц может помогать в безопасности (польза), но её потенциал для тотальной слежки и подавления невинных людей (вред) гораздо существеннее – значит, согласно данному принципу, лучше не внедрять такую систему. Или автономное оружие: выгода – упрощение военных операций для одной стороны, но вред – высокие шансы неправомерных убийств и эскалации насилия; шариат сказал бы остановить такой проект, несмотря на выгоду. Данный приоритет тесно увязан с запретом вреда (п.4) и предотвращением средств к греху (п.11): вместе они образуют превентивную позицию.
В светских этических дискуссиях тоже часто звучит, что безопасность и этичность должны идти впереди выгоды. Формально это проявлено в принципе предосторожности, который требует воздержаться от новых технологий при сомнениях в их безопасности. Исламская же формула ещё более категорична: когда вред и благо столкнулись, сперва устрани зло – ибо игнорировать опасность ради выгоды считается неоправданным. Это подчёркивает “охранительный” характер шариата, ставящего защиту от порчи на первое место при оценке любых инициатив в области ИИ.
- Коллективная обязанность (فَرْضُ الكِفَايَةِ). Фард аль-кифая – это категория обязанностей в исламе, которые адресованы общине в целом: достаточное выполнение их группой людей освобождает остальных от греха, но если не делает никто – грех ложится на всех, кто мог бы участвовать. Классические примеры – некоторые общественные службы: образование, врачевание, оборона – которые не обязательно каждый индивид должен исполнять, но в сумме община обязана их обеспечить.
В сфере ИИ принцип коллективной обязанности означает, что мусульманская община должна выделить достаточно специалистов и ресурсов для безопасного и этичного освоения этой технологии, дабы защитить свои интересы и принести пользу людям. Разработка исламского кодекса применения ИИ сама по себе может считаться фард аль-кифая для ученых и экспертов: если хотя бы группа компетентных богословов и инженеров создаст руководящие принципы, остальные будут следовать им, и долг будет выполнен; но, если никто не займётся этой задачей, всё сообщество понесёт ответственность за упущение. Аналогично, подготовка мусульманских кадров в области ИИ – обязанность уммы: должно найтись достаточное число квалифицированных специалистов, способных внедрять и контролировать ИИ с соблюдением шариатских норм (в противном случае зависимость от внешних разработок, не учитывающих ценности ислама, может привести к ущербу для общины). Также на уровне государства или крупных организаций: если использование ИИ становится необходимостью (например, для экономики или обороны), то обеспечить его этичное внедрение – коллективная обязанность управленцев. Принцип фард кифая стимулирует взаимопомощь и планирование: не каждый обязан быть айти-специалистом, но те, у кого есть способности, призваны закрыть эту потребность от лица всех.
В светском мире прямого аналога нет – там это скорее сфера ответственности государства или рынка. Однако и в международных обсуждениях звучит идея, что “наши лучшие умы должны работать на общее благо с ИИ”. Ислам же придаёт этому характер религиозной обязанности: игнорировать технологический прогресс или не обеспечить в нём присутствие нравственности – коллективно порицаемо. Поэтому исламский подход распределяет ответственность: одни берут на себя труд в области ИИ, другие – поддерживают их, зная, что таким образом умма в целом выполняет свой долг перед Всевышним в эпоху новых технологий.
- Принцип предосторожности в сомнительном (الِاحْتِيَاطُ فِي الشُّبُهَاتِ). Исламская этика советует избегать того, в чем есть неясность относительно дозволенности. Пророк ﷺ сказал: «Халяль – ясен, и харам – ясен, а между ними находятся сомнительные дела, о которых многие люди не знают. Так вот, кто избегает сомнительного, тот защитил свою веру и честь…»[66]. На основе этого учения сложился принцип ихтият (предусмотрительности) в делах сомнительной природы: если у человека или сообщества нет уверенности, разрешено ли то или иное действие, лучше воздержаться, пока не прояснится.
В контексте ИИ принцип предосторожности в сомнительном означает, что при появлении новых технологий или способов применения, моральная приемлемость которых неясна, следует соблюдать осмотрительность. Если не до конца понятно, не противоречит ли определённое использование ИИ исламским нормам – например, автономное принятие решений в убийственно-боевых системах, генерирование образов, граничащих с оскорблением религиозных чувств, или сбор данных о людях – мусульманское сообщество скорее выберет воздержаться или ограничить такое применение, пока авторитетные ученые не вынесут ясного вердикта. Это предотвращает ситуацию, когда погоня за модой на новую технологию заводит в духовно опасную область. Разработчики тоже должны иметь культуру осторожности: если алгоритм обучен на неэтичном контенте, лучше не выпускать модель, пока не будут очищены сомнительные элементы.
В современном светском дискурсе подобный подход отражён в принципе “better safe than sorry”[67] и превентивном анализе рисков. Например, сфера биотехнологий и ИИ требует этической экспертизы перед внедрением, что перекликается с исламским требованием ясности дозволенности. Уникальность исламского подхода в том, что он мотивирован не только страхом технического провала, но и заботой о духовной чистоте: лучше упустить некоторую выгоду, чем незаметно оказаться вовлечённым в харам. Поэтому исламский кодекс ИИ призывает: при малейших сомнениях в халяльности или безопасности технологического решения – остановись, проверь, уточни, и лишь получив уверенность, действуй.
- Принцип адаптации к времени и месту (تَغَيُّرُ الأَحْكَامِ بِتَغَيُّرِ الزَّمَانِ وَالمَكَانِ). В исламском праве есть мудрое положение: не порицается изменение решений при изменении времени, места, условий и обычаев. Это относится преимущественно к сфере социально-правовых норм (муамалят), а не к неизменным обрядам, – но в этих гибких областях факихи признают, что новое время может требовать новых решений. Этот принцип подкреплён учётом урфа (местного обычая) и общим духом ислама, не желающего ввергать людей в затруднение из-за устаревших норм. Однако изменение касается лишь второстепенных правил и их применения – основы веры и ясные запреты неизменны.
Применительно к ИИ принцип изменяемости правовых постановлений с изменением обстановки означает, что этический кодекс и регуляции в этой сфере не должны оставаться статичными. По мере развития самой технологии ИИ, появления новых сценариев применения и накопления опыта обществом, исламский подход допускает и даже требует обновления и переосмысления правил. То, что на заре технологий казалось допустимым, могло проявить скрытые вредные эффекты – тогда со временем решение пересматривается в сторону ужесточения. И наоборот, ранее строгие ограничения могут быть смягчены, если изменились социальные условия или появились новые средства контроля, снимающие прежние риски. Например, через десятилетие могут возникнуть новые виды ИИ, о которых нынешний кодекс ничего не говорит – тогда законоведам следует издать новые фетвы, учитывая реалии того будущего дня. Исламский принцип требует отслеживать “мааляат” – отдаленные последствия, и при смене эпох переоценивать нормы, чтобы они всегда отвечали актуальным макасид (целям шариата). По сути, это призыв к динамичному, эволюционному управлению ИИ.
Светские регуляторы аналогично закладывают механизмы обновления правил: в законодательство часто включают пересмотр через несколько лет, ученые публикуют новые версии этических гайдов по мере развития техники. Современные подходы, как agile-государство[68], предполагают непрерывную корректировку политик. Здесь исламский и светский подход полностью совпадают в методе: нормативы по ИИ – “живой документ”, который должен реагировать на изменение времени и места. Разница лишь в мотивации: ислам делает это, чтобы всегда сохранять верность вечным принципам справедливости и милости в новых формах, а светский – из прагматической необходимости. Но результат один: гибкость и актуальность регулирования ИИ с течением времени.
II. Высшие цели шариата (مقاصد الشريعة): принципы 22–26
- Сохранение религии (حِفْظُ الدِّينِ). Данный принцип означает охрану и укрепление исламской веры и практики в обществе. В классическом фикхе (включая ханафитский мазхаб) сохранение религии считается первостепенной необходимостью из пяти высших целей шариата. Исламское право предписывает защищать веру – например, через наказание за вероотступничество и обязательность джихада в случае угрозы – даже ценой жизни и имущества, поскольку духовное благополучие ставится выше мирского. Вся правовая система направлена на обеспечение свободы вероисповедания, недопущение отступления от исламских принципов и искоренение того, что подрывает веру общества.
Применительно к технологиям ИИ, принцип حفظ الدين требует, чтобы системы ИИ не только избегали подрыва веры, но и защищали морально-нравственные устои. На этапе проектирования это означает, что алгоритмы не должны закладывать антиисламские убеждения или поощрять безверие. При обучении моделей важно исключать богохульный или антирелигиозный контент, способный негативно влиять на убеждения мусульман. На этапе внедрения – например, в случае виртуальных имамов или приложений-фетв – недопустимо, чтобы ИИ искажал богословские доктрины или давал ошибочные шариатские заключения. Полная автоматизация религиозных постановлений недопустима, поскольку в исламской традиции только живой муджтахид обладает необходимым уровнем богословского понимания и ответственностью перед Богом. ИИ-система не является мукаллифом (религиозно обязанным), поэтому она не может «играть роль Бога» или заменять человека в вынесении окончательных шариатских решений. Вместо этого её роль вспомогательная: автоматизированные службы могут распространять знания (например, искать хадисы или аяты по запросу), но итоговая оценка должна оставаться за квалифицированным факихом.
Светские кодексы этики ИИ напрямую не рассматривают сохранение религии, так как секулярная этика нейтральна к вопросам веры. В некоторых международных принципах затрагивается уважение культурного и религиозного разнообразия пользователей, однако обязанности именно сохранения веры нет. Это подчёркивает уникальность исламского подхода: он ориентирован не только на мирские ценности и права, но и на защиту духовного благополучия уммы.
- Сохранение жизни (حِفْظُ النَّفْسِ). Под сохранением жизни понимается охрана человеческой жизни, здоровья и физической неприкосновенности. В исламском праве жизнь рассматривается как священный дар, и защита жизни – вторая по значимости цель шариата после религии.
Для технологий искусственного интеллекта это означает, что на всех этапах жизненного цикла ИИ должна быть обеспечена безопасность человека. При разработке систем закладываются ограничения, исключающие причинение физического вреда: например, алгоритмы управления беспилотным транспортом или медицинские ИИ обязаны ставить наивысшим приоритетом сохранение жизни пользователя и окружающих. Обучение моделей должно учитывать сценарии наихудшего случая, чтобы ИИ не привёл к гибели по ошибке (например, автовождение ИИ должно максимально избегать аварийных ситуаций). При внедрении ИИ, особенно в критических сферах (транспорт, медицина, производство), необходимы механизмы отказа и контроля человеком, предотвращающие катастрофические сбои. Конечным пользователям должна быть гарантирована безопасность: например, роботы-ассистенты не должны представлять опасность для людей, а системы оружия на основе ИИ по исламским нормам не могут применяться против мирного населения. Ханафитские принципы о запрете гʽулью (чрезмерности) и обязательности устранения вреда требуют, чтобы ИИ-системы проходили строгую проверку на отсутствие риска для жизни. Мусульманские исследователи предлагают оценивать новые технологии по критерию фалах – способствуют ли они истинному благу и не несут ли зла. Если ИИ несёт потенциальную угрозу жизни или здоровью, его разработка и применение противоречат шариатским нормам.
Современные светские кодексы во многом созвучны этому принципу: одним из фундаментальных требований к AI-системам является принцип «do no harm»[69] – не причинять вреда человеку. В международных рекомендациях (например, ЮНЕСКО) провозглашаются приоритеты безопасности, прозрачности и человеческого благополучия при использовании ИИ. Однако исламский подход идёт дальше утилитарной “безопасности”: сохранение каждой невинной жизни – религиозный долг, имеющий сакральную ценность, а не просто вопрос корпоративной ответственности. В отличие от сугубо светского взгляда, где допустимы расчёты риск/выгода, шариат подчёркивает абсолютную ценность жизни и обязанность её защищать, что может требовать отказа от технологий, несущих смертельные риски, даже если они экономически выгодны.
- Сохранение разума (حِفْظُ العَقْلِ). Этот принцип направлен на защиту рассудка, ментального здоровья и интеллектуальной целостности человека. В традиционном фикхе под حفظ العقل подразумевается, во-первых, запрет всего, что уничтожает или серьёзно искажает разум (как алкоголь и наркотики, за употребление которых установлены хадд-наказания). Во-вторых, поощрение образования и развития знаний, поскольку здравый разум необходим для выполнения религиозных обязанностей.
В применении к искусственному интеллекту сохранение разума требует, чтобы ИИ-технологии не приводили к деградации человеческого интеллекта и не манипулировали сознанием пользователей. На этапе проектирования это означает этические ограничения на разработки, которые могут вызывать психологическую зависимость или информационное одурманивание. Например, алгоритмы соцсетей или рекомендательные системы не должны намеренно эксплуатировать когнитивные уязвимости, вовлекая пользователя в бесконечную прокрутку контента ценой его концентрации и критического мышления. Обучение моделей ИИ должно проводиться на «халяльных» данных – без наполнения их ложной или развращающей информацией, чтобы ИИ не распространял интеллектуальный «яд». На стадии внедрения важно обеспечить прозрачность работы ИИ, чтобы пользователи понимали логику алгоритмов и не попадали в ситуацию «гарар» (неопределённости), когда решения ИИ непостижимы и подрывают доверие к собственному рассудку. Конечные пользователи, взаимодействуя с ИИ, должны сохранять свободу воли и возможность принятия осознанных решений – поэтому шариат запрещает полагаться слепо на машину там, где необходим осмысленный человеческий выбор. Если, например, AI-система даёт совет в медицинской или религиозной сфере, пользователь по исламу имеет право узнать обоснование и при несогласии обратиться к человеку-специалисту. Иными словами, ИИ не должен превращаться в инструмент массовой манипуляции или отучать людей от самостоятельного мышления.
В свете светских этических кодексов часть этих идей находит отражение в принципах, связанных с психологической безопасностью и ответственным дизайном. Например, все больше внимания уделяется проблеме «digital well-being»[70] – недопущения того, чтобы алгоритмы наносили вред ментальному здоровью (через аддиктивность сервисов, распространение дезинформации и т.п.). Законы о защите данных и противодействии дезинформации стремятся опосредованно защитить общественное сознание от «загрязнения» ложью. Однако прямого аналога принципу حفظ العقل в секулярных документах нет: исламский подход уникален тем, что рассматривает разум как объект правовой охраны именно в морально-духовном плане. Если светские нормы говорят о privacy[71] и mental health[72], то шариат включает в сохранение разума и защиту от греховного невежества, и обязанность обучаться истине. Это отражает интегральный характер исламских норм, соединяющих интеллектуальное благополучие с религиозным.
- Сохранение имущества (حِفْظُ المَالِ). Под сохранением имущества понимается защита частной и общественной собственности, экономического благосостояния и прав владельцев. В фикхе имущество (مال) – одна из пяти неотъемлемых ценностей, требующих охраны. Ханафитская школа права строго оберегает права собственности: кража, грабёж, мошенничество категорически запрещены, на воровство установлен хадд – отсечение руки при соблюдении условий. Каждый имеет право на неприкосновенность своего достояния, и любая сделка требует добровольного согласия сторон (рида).
Для ИИ-систем данный принцип трансформируется в несколько плоскостей. На этапе разработки и обучения необходимо соблюдать «халяльность» источников данных: то есть использовать датасеты, полученные легально, с соблюдением прав владельцев. Нельзя “красть” чужие данные для обучения алгоритмов – подобное сравнимо с воровством или присвоением имущества без согласия. Кроме того, разработчики ИИ должны предотвращать ситуации, когда алгоритм сам по себе совершает незаконные транзакции или рекомендации, ведущие к чьим-то имущественным потерям. На этапе внедрения важную роль играет контрактная прозрачность: если компания предоставляет AI-сервис, условия использования должны ясно оговаривать имущественные аспекты – кто владеет результатами работы ИИ, как соблюдаются авторские права на данные и создаваемый контент и т.д. Недопустимо, чтобы через ИИ нарушались права интеллектуальной собственности: например, генеративная модель не должна несанкционированно воспроизводить защищённые авторским правом материалы. Конечные пользователи, пользуясь ИИ, также должны иметь гарантии защиты своего имущества: скажем, финансовые рекомендации AI не должны склонять к азартным, спекулятивным схемам (аналог мейсир), а робо-консультанты обязаны следовать принципам честности и осторожности, чтобы не поставить под угрозу сбережения клиента. Более того, алгоритмы, занимающиеся управлением финансами (в банковской сфере, инвестициях), в исламском контексте должны проходить шариатский аудит на предмет соблюдения запретов риба (ростовщичества) и гаррара.
В секулярных этических кодексах защита имущественных прав и исполнение контрактных обязательств – базовые юридические требования. Принцип accountability[73] в AI – близок по духу: разработчики должны нести ответственность за ущерб, причинённый системой, включая материальный. Отличие в том, что ислам рассматривает уважение к собственности не только как правовое, но и нравственное обязательство перед Аллахом. Нарушение имущественного права греховно даже вне опасения наказания. В то время как светские кодексы опираются на принудительную силу закона, исламский подход дополняет её внутренней богобоязненностью, воспитывая добросовестность при разработке и применении ИИ даже там, где нет внешнего контроля.
- Сохранение рода и чести (حِفْظُ النَّسْلِ / حِفْظُ العِرْضِ). Этот комплексный принцип охватывает сразу две близкие цели: защиту семейного происхождения (родословной) и защиту чести и достоинства личности. В классическом перечне макасид некоторые включают только حفظ النسل (сохранение потомства), а некоторые – حفظ العرض (сохранение чести); однако по ханафитской интерпретации оба понятия взаимосвязаны и важны.
В эру ИИ защита рода и чести приобретает новые аспекты. Прежде всего, технологии не должны разрушать институт семьи или унижать человеческое достоинство. На этапе разработки это означает отказ от проектов, подрывающих семейные ценности – например, ИИ-платформы не должны поощрять разврат или пропагандировать модели поведения, ведущие к разрыву семейных уз. Обучение алгоритмов должно фильтровать контент: недопустимо включать порнографические, непристойные данные или материалы, оскорбляющие ту или иную этническую/религиозную группу (что наносит удар по коллективной чести). Особое внимание – генеративным моделям: запрет фотореалистичных AI-изображений отчасти связан именно с рисками порочащих подделок. Современные ИИ способны создавать дипфейки – искусственно сгенерированные фото/видео, где человек изображён совершающим позорные поступки. С точки зрения шариата распространение ложных порочащих изображений – тяжкий грех клеветы (бухтан), разрушающий حفظ العرض. Поэтому исламский кодекс требует на этапе внедрения внедрять меры против злоупотребления такими технологиями: например, механизмы верификации оригинальности медиа, юридическую ответственность за создание дипфейков с целью опорочить чью-то честь. Пользователи ИИ-систем должны быть защищены от оскорблений и домогательств со стороны алгоритмов: так, чат-бот не должен генерировать унизительные или дискриминационные ответы – это противоречило бы исламской норме уважения к ‘ирд каждого человека. Кроме того, в сфере биотехнологий ИИ-приложения (например, генеалогические анализы, редактирование генома) должны учитывать этические ограничения шариата, связанные с родословной: запрет на анонимное донорство, суррогатное материнство вне брака и т.п., ведь они размывают линии родства.
В светских принципах этики ИИ прямого аналога этому комплексному принципу нет – обычно отдельно рассматриваются вопросы недопустимости дискриминации и приватности данных. Защита потомства как таковая вне религиозного дискурса не фигурирует – разве что в контексте биоэтики обсуждаются рамки допустимого в репродуктивных технологиях. Можно сказать, что секулярная этика косвенно затрагивает некоторые аспекты حفظ النسل и حفظ العرض (например, через права человека, недискриминацию, приватность), но не объединяет их в единый принцип. Исламский же подход уникален целостностью: он изначально учитывает и семейно-родовые ценности, и честь личности как объекты правовой защиты даже при разработке и использовании самых новых технологий ИИ.
III. Нормы фикха и правила для разных этапов жизненного цикла:
- Честность и «халяльность» источников данных (صِحَّةُ وَحِلُّ المَصَادِرِ). Этот принцип устанавливает, что исходные данные, используемые в работе ИИ, должны быть получены законным путём и обладать достоверностью. Понятие «халяльность источников» по аналогии с халяльным пропитанием означает этическую и юридическую чистоту информации. В исламском праве хоть напрямую и не говорилось о наборах данных, но заложены смежные нормы: запрет на присвоение чужого имущества (включая информацию) без согласия, требование говорить правду и проверять сведения перед распространением. Для современного понимания можно вывести требование: данные для обучения и принятия решений ИИ должны быть «честными» – т.е. не искажёнными и полученными без нарушения чьих-либо прав.
На практическом уровне это означает несколько конкретных правил. Во-первых, недопустимость использования краденых или нелегально собранных данных: мусульманин-разработчик не станет, к примеру, обходить ограничения приватности и парсить[74] персональные данные людей тайно, ибо это было бы воровством/шпионажем (тахассус), запретным в шариате. Все датасеты должны собираться с информированного согласия (рида) субъектов, чьи данные используются. Во-вторых, данные должны быть халяль по содержанию. То есть ИИ не следует обучать на материалах, которые изначально запрещены: порнография, призывы к хараму, клеветнические или заведомо ложные сведения – всё это «нечистые» источники с позиции ислама. Их внедрение в модель не только аморально, но и чревато тем, что система будет воспроизводить греховный контент. В-третьих, важно обеспечить точность и надёжность данных: преднамеренная «подмена данных» или применение заведомо некорректных обучающих выборок ради манипуляции результатами противоречат и профессиональной этике, и исламскому запрету мошенничества (гиш). Например, если тренировать рекомендательный алгоритм на данных, искусственно склонённых в чью-то пользу, – это сродни ложному свидетельству или обману покупателя на рынке, что шариат строго порицает. Поэтому этот принцип обязывает мусульман-разработчиков проводить тщательную проверку и очистку данных (data auditing), подтверждая их пригодность с этической точки зрения.
В современных светских принципах AI также уделяется внимание качеству данных – особенно в контексте борьбы с bias[75] и дискриминацией. Практики data governance[76] требуют проверять источники на законность получения (соблюдение законов о персональных данных) и на репрезентативность. Однако акцент часто делается на правовых аспектах (согласие пользователя по GDPR) и технических (отсутствие систематической ошибки), нежели на моральной «чистоте» содержания. В отличие от этого, исламский подход вводит ещё и духовно-нравственный фильтр: помимо легальности, данные должны не противоречить ценностям шариата. Аналогов этому в секулярных кодексах нет – там важно не нарушить правовые нормы и избегать скандалов, тогда как Ислам поднимает планку до угодного Аллаху использования информации. Тем не менее, оба подхода сходятся в одном: качество и происхождение данных критически важны для этичности ИИ. Но Ислам требует учитывать не только благо людей, но и соответствие Божественным установлениям при отборе данных.
- Запрет изображения живых существ (تَصْوِيرُ ذَوَاتِ الأَرْوَاحِ). Данный принцип восходит к классическим нормам фикха, запрещающим создание образов одушевлённых существ – людей и животных – в тех случаях, когда это изображение наделено полнотой форм. В ханафитском мазхабе с опорой на хадисы установлено, что любое умышленное изображение существа с душой (будь то рисунок, скульптура) порицается и в ряде случаев греховно. В общем правиле ханафиты склоняются к весьма осторожному отношению: тасвир (изобразительное воспроизведение) – та область, где лучше избегать лишнего, если нет насущной нужды.
В контексте ИИ эта норма актуальна прежде всего для технологий компьютерной графики, генеративных сетей и дополненной реальности. Проектирование и обучение систем, способных создавать изображения людей/животных, должно учитывать исламские ограничения. Например, при разработке алгоритма, генерирующего персонажей или фото, мусульманин-программист может заложить фильтры, исключающие полное правдоподобное воспроизведение лиц или фигур. Если же технологическая платформа сама предоставляет инструменты для рисования или 3D-моделирования, ей следует как минимум предупреждать мусульман-пользователей о классическом запрете на тасвир – аналогично тому, как существуют предупреждения о халяльности/харамности в других сферах. Внедрение таких AI-систем в мусульманских странах может сопровождаться ограничениями на контент: например, цензурные алгоритмы могут блокировать автогенерацию изображений Пророков, сподвижников или вообще образы людей в религиозном контексте, чтобы предотвратить идолопоклонство или непочтительность. Эксплуатация конечными пользователями ИИ-графики по шариату должна сводиться к нужным и дозволенным случаям: образование (например, медицинские иллюстрации тела для учебника, где без этого не обойтись), наука, расследования – то есть там, где создание изображения служит явному благу и не возведено в искусство ради искусства. Современные ученые ислама нередко делают поблажки для фото- и видеосъёмки как “отражения реального мира”, однако генеративный ИИ – особый случай, поскольку он рисует с нуля. Поэтому, по строгому мнению, ханафитов, пользоваться такими инструментами без необходимости – нежелательно. Таким образом, данный принцип накладывает серьёзные ограничения на функциональность AI, связанного с графикой: недопустимо, чтобы алгоритм по умолчанию генерировал реалистичные изображения живых существ, не имея веской причины на то.
Очевидно, что в светских этических кодексах нет аналогичного запрета. В нехватке такого принципа и состоит одно из разительных отличий: в то время как индустрия развлечений активно внедряет deepfake-видео, фотореалистичные аватары и пр., исламский этический кодекс относится к этому настороженно. Единственное пересечение можно найти с проблематикой злоупотребления изображениями – когда речь идёт о дипфейках для дезинформации или порнографии, светские эксперты тоже бьют тревогу. Они апеллируют к правам человека, приватности, честности, но не к сакральному запрету. Для мусульман же запрет тасвира – это акт поклонения и смирения перед Аллахом: воздержаться от создания «оживлённых» картин значит признать границу между Творцом и творением. Поэтому исламский подход уникален: он вводит духовную мотивацию туда, где светская этика видит лишь эстетику или творчество. Тем не менее, на практическом уровне и исламские, и неисламские специалисты сходятся в одном: технологии, генерирующие образ живого человека, нужно использовать крайне ответственно, с учётом возможного вреда и злоупотреблений.
- Соблюдение договоров и имущественных прав (حُقُوقُ المِلْكِيَّةِ). Этот принцип является развитием сохранения имущества и требует, чтобы системы ИИ уважали заветы и право собственности во всех аспектах функционирования. В исламском праве верность договору – прямое веление Всевышнего: «О верующие! Выполняйте обещания!»[77]. Ханафитская школа, как и другие, учит, что контракты священны, если они не противоречат шариату, и нарушение договора ( نقض العهد) – грех и несправедливость. Пророк (мир ему) сказал: «Мусульмане связаны условиями своих соглашений». В новую эпоху ведущие факихи, опираясь на принципы мазхаба, признали и интеллектуальную собственность (حقوق معنوية) – например, авторское право, патенты – в качестве законного владения, которое нельзя присваивать без разрешения.
На практике соблюдение данного принципа означает: во-первых, ИИ-системы должны оперировать данными с учётом прав владельца. Если информация лицензирована, алгоритм не должен выходить за рамки лицензии. Например, если нейросеть обучена на датасете по соглашению, что выводы не будут коммерческими, – она не может использоваться затем в коммерческом продукте, нарушая условия. Во-вторых, автоматические решения ИИ не должны приводить к нарушению контрактов. Скажем, торговый бот, совершающий сделки, обязан следовать всем ограничениям, которые человек-инвестор на него возложил; если алгоритм начнёт самовольно игнорировать контрактные обязательства (например, лимиты риска), это неприемлемо с моральной точки зрения. В-третьих, при разработке AI-продуктов мусульмане обязаны соблюдать законы об интеллектуальной собственности: не копировать чужой код и модели незаконно, не нарушать патенты. Даже если система ИИ позволяет обойти технические средства защиты (например, сгенерировать музыку, похожую на защищённую), разработчик должен встроить ограничения против такого использования, проявляя добропорядочность. В-четвертых, довольство сторон: если ИИ выступает связующим звеном в сделке (например, платформа-агрегатор с AI-матчингом[78]), он должен обеспечивать, чтобы обе стороны были осведомлены об условиях и выразили согласие. Недопустимо, чтобы алгоритм скрывал существенные условия (например, подписывает пользователя на сервис без чёткой оферты) – это нарушило бы шариатский принцип ясности сделки и могло бы считаться батил (ничтожной сделкой). В-пятых, подотчётность и возмещение ущерба: Ислам требует, чтобы нарушение, случившееся по вине алгоритма, было компенсировано. Поскольку ИИ сам не несёт ответственности, она ложится на разработчиков/владельцев. Поэтому в договорах на внедрение AI следует заранее распределить ответственность, и мусульманин обязан честно признать свою вину, если алгоритм нанесёт убытки чужому имуществу.
В светской перспективе соблюдение контрактов и прав собственности – скорее правовая аксиома. Тем не менее, Trustworthy AI концепции включают требование соответствия законам – а значит, и контрактному праву. Отличие же в том, что исламский кодекс этики не отделяет правовые нормы от моральных – верность договору для мусульманина продиктована не только страхом наказания государства, но прежде всего страхом Аллаха и нравственным долгом исполнения обещания (аманат). Поэтому исламский разработчик ИИ будет соблюдать права контрагентов даже там, где светский профессионал мог бы поискать лазейку. В результате такой AI станет более «этичным» по любым меркам. Можно заключить, что светские принципы и исламские здесь в целом совпадают по требованиям, но последним присущ более глубокий уровень обязательности, подкреплённый духовными ценностями.
- Прозрачность, отсутствие гаррара (الغَرَرُ). Гаррар в исламском праве означает недопустимую неопределённость, риск или обманчивость в деле, ведущую к потенциальному ущербу. Классический пример гаррара – сделка, условия которой неясны одной из сторон (например, продажа «рыбы в пруду», когда неизвестно, сколько её там). Шариат запрещает сделки с чрезмерным гарраром, потому что они ведут к спорам, несправедливой выгоде и рискованным утратам. Ханафитские юристы особенно подчёркивали принцип честности в торговле: контракт должен быть понятен, информация раскрыта, иначе он батил или фасид (ничтожен/испорчен). Прозрачность (ан-назаха) и полнота информации – краеугольный камень исламских коммерческих правил. Кроме того, ислам запрещает умышленный обман: лживую рекламу, сокрытие дефектов товара – всё это разновидности гаррара через утаивание правды. Таким образом, принцип требуемой шариатом прозрачности шире, чем просто “не обманывать”: он предполагает позитивную обязанность обеспечить ясность и определённость в отношениях.
Когда речь об искусственном интеллекте, данное требование проявляется как принцип AI transparency & explainability[79], но с дополнительным религиозным значением. На этапе разработки мусульманин-программист должен стремиться создавать модели, которые можно объяснить и проверить. “Чёрный ящик”, выдающий судьбоносные решения без понятной логики – это аналог сделки с гарраром, где одна сторона (человек) не знает условий, по которым машина приняла решение. Такой дисбаланс противоречит исламскому идеалу ясности. Поэтому при обучении моделей следует документировать и делать доступными ключевые особенности: на каких данных модель училась, с какими допущениями. При внедрении ИИ-систем мусульманские разработчики и владельцы обязаны честно информировать пользователей о возможностях и ограничениях алгоритма. Например, если чат-бот не умеет различать достоверность информации, пользователь должен быть предупреждён, чтобы не принять вслепую ошибочный ответ (иначе это было бы сокрытием “дефекта” системы). Если AI применяется в медицине или финуслугах, принцип прозрачности требует давать клиенту понимание оснований решения: в шариате нельзя навязать человеку исход, не раскрыв условия. В конечном использовании это выливается в право на объяснение и отказ: пользователь, столкнувшийся с решением ИИ, имеет право знать, почему оно такое, и оспорить его. Таким образом, AI должен быть понятным и предсказуемым настолько, насколько это возможно, чтобы минимизировать элемент неоправданного риска и недопонимания – то есть гаррара. Отдельно стоит упомянуть достоверность: Ислам обязывает говорить правду, поэтому AI не должен преднамеренно генерировать ложь. Алгоритмы, создающие фейки, дезинформацию – противны не только светской этике, но и шариатскому принципу прозрачности, ведь они сознательно искажают реальность, вводя людей в заблуждение (что харам). Следовательно, мусульманские разработчики должны встроить в системы фильтры против откровенно ложного контента и против излишней уверенности модели в непроверенных фактах.
В сфере глобальных AI-принципов прозрачность и объяснимость фигурируют в числе ключевых требований. Европейские руководящие принципы для доверенного ИИ, например, включают explicability как один из столпов. UNESCO в своей рекомендации по этике ИИ тоже ставит акцент на достоверности информации, раскрытии алгоритмических решений и возможности аудита. Всё это во многом созвучно исламскому требованию устранения гаррара. Отличие скорее в обосновании: для секулярной этики прозрачность – инструмент обеспечения доверия и снижения юридических рисков. В исламе же прозрачность – это ещё и проявление нравственности, ибо скрытность в важном деле рассматривается как потенциальная несправедливость. Кроме того, ислам склоняет чашу весов в пользу человека: если алгоритм не может дать достаточной определённости, лучше доверить решение человеку, чем предлагать обществу «кота в мешке». Светский подход может быть более прагматичным (в стиле: “объяснимо настолько, насколько не слишком снижает эффективность модели”). Исламский – более принципиален: никакая выгода от точности или прибыли не оправдывает фундаментального отсутствия честности и ясности. В итоге можно заключить, что исламский принцип отсутствия гаррара предоставляет этическую базу для требований к ИИ, которые и секулярные специалисты признают – но подкрепляет их ещё и религиозным императивом говорить правду и быть открытым в делах.
- Опосредованная ответственность (المَسْؤُولِيَّةُ التَّبَعِيَّةُ). В классическом исламском праве хорошо разработано понятие ответственности за действия, особенно различие между прямым деятелем (مباشر) и косвенным причинителем (متسبب). Ханафитские правоведы устанавливали, что если вред нанесён напрямую деянием лица, то ответственность (гарантия возмещения, или даман) лежит на нём; а тот, кто лишь создал условия, несёт ответственность лишь при отсутствии прямого виновника или при умысле с его стороны. Применяя эту логику, ИИ выступает как инструмент (причина), а не юридически ответственный субъект. Машина не подпадает под шариатские категории нравственной ответственности, ведь не обладает ни душой, ни разумением, ни обязанностями перед Аллахом. Следовательно, за всё, что делает ИИ, по шариату отвечают люди “стоя́щие за ним” – разработчики, операторы, владельцы. Принцип المسؤلية التبعية означает, что ответственность за последствия действий ИИ носит делегированный характер: творец алгоритма и тот, кто его запустил, несут греховную и юридическую ответственность, подобно тому как хозяин отвечал бы за ущерб от своего приручённого животного или как за наёмного работника. В исламской правовой истории есть аналогии: например, если кто-то выкопал яму и отошёл, а другой в неё упал, копатель – косвенный виновник и должен возместить ущерб. По аналогии, создатель опасного ИИ несёт ответственность за «яму», которую он «вырыл» в цифровом мире.
Практически этот принцип предписывает, чтобы на всех этапах – от разработки до эксплуатации – было чёткое распределение ответственности людей за поведение AI. На этапе проектирования мусульманские разработчики должны помнить: автоматизация не снимает с них морального груза. Нельзя оправдать ошибку фразой “это всё алгоритм” – в судный день, согласно исламскому вероучению, спросятся люди, принимавшие решения, а не бездушный код. Поэтому закладывать алгоритм нужно так, чтобы минимизировать риск непреднамеренного вреда, и предусматривать механизмы контроля. На этапе внедрения компании должны заключать договоры, где прописано, кто отвечает, если ИИ ошибётся. Шариатически неправильно пытаться уничтожить субъект ответственности, рассуждая, что “никто не виноват, виноват компьютер”. Если, например, автономный дрон наносит ущерб, то с позиции фикха отвечает либо оператор (если был), либо тот, кто его спроектировал/выпустил. Это стимулирует введение в AI-системы “человека в контуре” (human-in-the-loop) или хотя бы “человека над контуром” (oversight): присутствие отвечающего лица на этапе принятия критических решений. В эксплуатации данный принцип означает, что конечные пользователи тоже несут часть ответственности за использование AI. Например, если человек применил ИИ для генерации клеветы, то грех и юридические санкции ложатся на него, а не на программу. Пользователь не может перенести вину на инструмент – как и в случае с любым орудием, злоупотребление им влечёт ответственность злоупотребляющего. Ислам учит личной ответственности (таклееф) каждого дееспособного индивида; ИИ не является мукаллифом, а значит, всегда найдётся реальный мукаллиф, ответственный за каждое действие алгоритма. Задача кодекса – сделать эту связь прозрачной и планируемой: кто именно ответит за тот или иной возможный исход работы системы.
В светских подходах к ИИ-этике аналогичное требование выражается через принцип accountability (подотчётности). Международные нормы – в частности, ЮНЕСКО и руководства ЕС – указывают, что “всегда должна сохраняться конечная ответственность человека” за работу ИИ. Никакой искусственный агент не должен обладать правовым иммунитетом или статусом, позволяющим уйти от ответственности. Это полностью соответствует исламскому взгляду. Можно сказать, что здесь наблюдается полное совпадение: и исламская, и секулярная этика настаивают – AI не субъект морали, а объект. Отличие лишь в том, что Ислам подкрепляет это вероучением: только человек наделён свободой воли и несёт ответ перед Богом, а машина – нет. Кроме того, из этого принципа в Исламе вытекает и представление о недопустимости, например, полного доверия судопроизводства или фетвы без участия человека – ведь если нет человека, принимающего решение, то и ответственность повисает в воздухе, что противоречит шариату. Светский дискурс тоже стремится к тому, чтобы AI не “выпускать на волю” без надзора, но мотивация в том числе страх перед правовыми вакуумами. Ислам же исходит из более фундаментальной концепции морального порядка. В итоге правило одно: разработчики и владельцы ИИ обязаны нести ответственность за свой продукт, а пользователь – за своё применение, и никакой “умный алгоритм” этого не изменит.
- Ограничение полной автоматизации в ахкам (قَصْرُ الإِحْكَامِ عَلَى الإِنْسَانِ). Под ахкам здесь понимаются вынесение нормативных решений, особенно в религиозно-правовых вопросах (шариатских постановлений). Данный принцип утверждает, что окончательные суждения, касающиеся прав и обязанностей, должны оставаться за человеком, а не за машиной. Это продиктовано как рассмотренными выше причинами ответственности, так и особым статусом шариатского суждения как акта иджтихада (усилия разума правоведа перед Богом). В ханафитском праве – да и в исламской традиции в целом – лишь живой учёный или кадий может выносить фетву или решение суда, обладая намерением (нийя), знанием контекста и вдохновением к деланию справедливости. Автоматизация процесса вынесения ахкама без участия человека противоречила бы самой сути фикха, который есть фахм – понимание, а не просто вычисление. Классические источники, конечно, не знали ИИ, но можем сослаться на общее правило: “хукм выносится тому, кто способен понимать доводы”. Машина же доводов не “понимает”, она их обрабатывает статистически. Поэтому шариат не признает автономное вынесение, скажем, судебного приговора нейросетью – такой “приговор” не имел бы легитимности в глазах религиозного закона.
На практике этот принцип означает, что в критически важных для жизни, религии и прав человека решениях ИИ не может быть предоставлена полная автономия. При проектировании систем для суда, полиции, управления вооружениями мусульмане закладывают обязательный уровень человеческого контроля. Например, если используется программа для вынесения наказания (определения срока заключения по алгоритму), конечное слово должен иметь судья-человек, который может отклониться от рекомендации ИИ, учитывая неформальные обстоятельства по справедливости (истихсан в ханафитском праве по сути об этом – решение на основании милосердия, выходящее за сухой алгоритм). В области фетв появляются “робо-муфтии” – чат-боты, выдающие ответы на религиозные вопросы. Исламский кодекс может рекомендовать использовать их лишь как справочные системы, но не как самостоятельные источники окончательных фетв. Желательно, чтобы за каждым таким сервисом стоял живой шейх, проверяющий и утверждающий ответы, или по крайней мере, чтобы ответы снабжались дисклеймером: “не является окончательной фетвой, обратитесь к знатоку”. Внедрение AI без оговорок в религиозные учреждения недопустимо – например, нельзя позволить ИИ автоматически выносить брачные решения, разводы, фетвы о халяльности финансовых продуктов без участия советов улемов. На этапе эксплуатации данный принцип подразумевает право человека вмешаться в любой автоматический процесс, влияющий на его права по шариату. Будь то автоматическое увольнение, выставление диагнозов или оценка благонадёжности – мусульманин должен иметь возможность потребовать пересмотра человеком. Это перекликается с правом апелляции, но основано ещё и на богословской установке: только человек способен реализовать полный спектр ценностей шариата (милосердие, раскаяние, намерение учесть уникальные обстоятельства).
Секулярные подходы также всё больше говорят о необходимости «Meaningful Human Control»[80] в системах ИИ. Особенно ярко это звучит в контексте автономного оружия: мировое сообщество обеспокоено перспективой “роботов-убийц” без человека в цикле принятия решения. Многие страны требуют обязать, чтобы критическое решение «стрелять или нет» принимал человек. По сути, это отражает тот же принцип, что и в исламе – жизнь и смерть не могут решаться бездушным алгоритмом. В отношении судебных алгоритмов и прочих важнейших сфер в ЕС вводятся гарантии участия человека (например, статья 22 GDPR прямо запрещает полностью автоматизированные решения, затрагивающие права, без возможности человеческого вмешательства). Таким образом, отличие между подходами не столько в цели, сколько в мотивации и всеобъемлющем применении. Ислам распространяет данное требование и на религиозно-нравственную область: например, принципиально отвергается идея, что искусственный интеллект мог бы сам выносить фетвы или заменять учёных. Светская же этика фокусируется на правовых и этических рисках, не рассматривая религиозные постановления. Но в секулярном мире тоже признаётся: «algorithms should not play God»[81], как метко заметили исследователи. Так что в этой области наблюдается согласие – хотя Ислам придаёт вопросу высшую духовную значимость.
- Право выбора и апелляции (حَقُّ الاِخْتِيَارِ وَالاِسْتِئْنَافِ). Исламское право испокон признаёт за человеком право на информированный выбор и несогласие в делах, затрагивающих его судьбу. Это вытекает из принципов добровольности сделок, отсутствия принуждения в религии[82] (Коран 2:256) и установленных процедур рассмотрения жалоб при несправедливых решениях. В ханафитском фикхе есть понятие хияр – право опционально подтвердить или аннулировать договор при наступлении определённых условий (например, хияр аль-рушд – право несовершеннолетнего отказаться от сделки по достижении зрелости). Также, хотя в классическом суде не было современной многоступенчатой апелляции, существовали механизмы пересмотра неправомерных решений: вышестоящий кадий или сам халиф мог отменить вердикт, если выявлена ошибка или злоумышленность. Иными словами, шариат не фаталистичен в социальных процессах – он даёт человеку возможность добиваться справедливости и менять своё решение, если оно было принято под давлением или в неведении. Поэтому переводя на язык AI, мы получаем требование: у любого, кого коснулось автоматизированное решение, должно быть право оспорить его или запросить альтернативу у живого человека.
Применительно к ИИ это означает, что на этапе внедрения сервисов нужно проектировать каналы для обратной связи и обжалования. Например, если автоматизированная система (скажем, интервью с помощью AI) отклонила кандидата на работу, тому должна быть предоставлена возможность апелляции к кадровой комиссии. Право выбора также подразумевает возможность отказаться от полностью автоматического режима. Пользователь мусульманин, зная о рисках ошибок ИИ, может предпочесть классическое обслуживание “человеком” – и этически компании должны предоставить такую опцию хотя бы в критически важных вопросах. В проектировании UI/UX[83] это выльется, например, в наличие кнопки «позвать менеджера» или «передать дело человеку». В эксплуатации принцип требует, чтобы сами алгоритмы были настроены не как безальтернативные диктаторы, а как помощники человеку. Хорошим тоном будет, если AI-система при вынесении рекомендаций предлагает: “Вы можете согласиться или запросить проверку человеком”. Особо это касается решений в сфере религии: мусульманин всегда может усомниться в ответе автоматического “учёного” и обратиться к живому имаму за вторым мнением – разработчики исламских приложений должны явно поощрять такое право, а не внушать безапелляционное доверие к программе.
Светские регуляции также приходят к закреплению подобных прав. Генеральный регламент ЕС по защите данных (GDPR) в ст.22 устанавливает право человека не подвергаться решению, основанному исключительно на автоматизированной обработке, если это решение имеет значимые последствия; у него есть право потребовать вмешательства человека и высказать свою позицию. Это напрямую соответствует исламскому требованию истец обратить к судье-человеку. Кроме того, проекты вроде AI Act в Европе предусматривают, что в “высокорискованных” системах должны быть предусмотрены механизмы человеческого надзора и возможности пользователей защищать свои права. Различие в том, что светский подход мотивирован правами человека и потребительскими правами, а исламский – ещё и морально-религиозным ощущением справедливости (‘адл). Для мусульманина требовать пересмотра несправедливого (или непонятного) решения – это не просто право, но и обязанность амр би-ль-маʽруф (веления одобряемого и запрета порицаемого), стремление восстановить справедливость, установленную Аллахом. Таким образом, исламский кодекс этики ИИ будет настаивать на максимально широком обеспечении прав выбора/апелляции – возможно, даже шире, чем некоторые светские законы. Но в целом направление одно: “человек всегда должен иметь голос против машины”, и ни одна AI-система не должна ставить пользователей в положение бесправных объектов, вынужденных покориться алгоритму.
- Учёт обычая (العُرْفُ). В исламском праве ‘урф – это местный обычай или устоявшаяся практика, признаваемая шариатом при условии, что она не противоречит явным текстам. Ханафитская школа особенно известна учётом ‘урфа: многие нормативные решения скорректированы под влиянием привычая (например, коммерческие обычаи влияли на детализацию договоров). Классический ханафитский принцип гласит: “аль-‘адат мухаккама” – «обычай имеет силу закона» в тех вопросах, которые не урегулированы прямым текстом.
Для этики ИИ это означает, что при разработке и регулировании AI-технологий в мусульманских обществах нужно учитывать местные ценности, язык, обычаи взаимодействия, чтобы решения были уместными и справедливыми по меркам данной общины. Практически учёт ‘урфа в ИИ проявляется в необходимости культурно-чувствительного дизайна. На этапе разработки алгоритмов следует привлекать знаний локального контекста: например, при создании чат-бота для обслуживания в мусульманской стране учесть вежливые формы общения на данном языке, религиозные праздники, особенности расписания (пятничный намаз и пр.). Дискриминация по культурному признаку недопустима, наоборот – многоязычность и адаптивность интерфейса будут выражением исламского уважения к разнообразию общин. При обучении моделей нужно следить, чтобы датасет не навязывал одной культурной нормы всей аудитории. Если, скажем, ИИ-модели обучены только на англоязычном западном контенте, их перенос без адаптации в иной ‘урф может привести к неуместным или оскорбительным результатам. Поэтому принцип требует локализации ИИ-систем: включения данных из местной культуры, привлечения экспертов – носителей обычая – к настройке и тестированию. На этапе внедрения учёт ‘урфа может выражаться в том, что правила использования ИИ и даже нормативы шариатского аудита будут слегка различаться в зависимости от страны и мазхаба. Например, какие-то консервативные сообщества могут полностью отключить генерацию изображений (следуя строгому ‘урфу), тогда как в других это допускается в научных целях. Ислам признаёт оба подхода как законные, если они опираются на известный одобренный обычай данной среды. Эксплуатация ИИ должна быть чуткой: сервисы рекомендаций, модерации контента и проч. обязаны учитывать местные нормы морали – то, что считается неприемлемым в данном обществе, даже если глобально это допустимо. ИИ не должен ломать устои сообщества, иначе он принесёт вред вместо пользы.
В светской этике технологического дизайна тоже звучат призывы к инклюзивности и учёту разнообразия. Концепции “AI for All” предполагают адаптацию решений к разным культурно-социальным группам, а не унификацию под один шаблон. В документах UNESCO одним из ключевых ценностей называется уважение культурного многообразия и инклюзивность. Фактически это близко к учёту ‘урфа: признаётся, что этические предпочтения могут различаться, и AI должен создаваться с участием представителей разных традиций. Отличие, пожалуй, в том, что Ислам делает эту идею обязательной изначально – улемы всегда смотрят, нет ли в данном регионе или сфере устоявшегося обычая, и если есть, интегрируют его в нормотворчество. В секулярном мире же долго доминировал подход «one-size-fits-all»[84], и только недавно заговорили о проблеме algorithmic bias[85], когда выяснилось, что унифицированные модели хуже обслуживают меньшинства. Теперь включают принцип “не навреди разнообразию”. Исламский кодекс ИИ, опираясь на богатую юриспруденцию ‘урфа, изначально бы строился на многообразии: например, в нём могут быть предусмотрены разные уровни фильтрации контента по запросу общины, или разные модели поведения ИИ в зависимости от страны (что приемлемо в Малайзии, может быть неприменимо в Саудовской Аравии, и наоборот). Это не считается двойным стандартом, а напротив – мудростью шариата, которая учитывает местный маслахат (благо). В итоге и западная этика приходит к пониманию необходимости локализации, но исламская имеет для этого более чёткую теоретическую основу в виде доктрины ‘урфа.
- Обязанность верификации религиозных данных (التَّثَبُّتُ مِنَ المَعْلُومَاتِ الدِّينِيَّةِ). Данный принцип – частный случай принципа о достоверности данных, выделенный особо из-за важности религиозной информации. В исламской традиции существует строгая обязанность تثبت – удостоверяться в истинности знаний прежде, чем действовать на их основе или передавать их.
Применительно к AI это особенно важно для систем, связанных с исламским образованием, ответами на фетвы, приложений Корана и хадисов. На этапе разработки таких систем следует привлекать квалифицированных шариатских экспертов для отбора и проверки данных. Если алгоритм обучается отвечать на вопросы по религии, его обучающий корпус должен состоять из проверенных источников: признанных тафсиров, сборников достоверных хадисов, фетв авторитетных богословов. Недопустимо “скармливать” нейросети случайный контент из интернета на религиозные темы – там много ереси, слабых или вымышленных хадисов, ошибочных мнений. Мусульмане-разработчики обязаны сделать фильтрацию: например, создать базу знаний, куда войдут только хадисы минимум хорошей (хасан) степени достоверности, отметив слабые и ложные, чтобы ИИ их не цитировал без пометки. При внедрении таких AI-сервисов необходимо предусмотреть механизм подтверждения ответов муфтием или редактором. Например, сайт с автоматическим ответом фетвы может отправлять сгенерированный ответ на проверку живому алиму, прежде чем показать его массово – иначе велика опасность распространения ошибки от имени ислама. Если это не реализовано технически, то как минимум в явном виде оговорить в интерфейсе, что ответ не окончателен без человека. В эксплуатации конечными пользователями нужно, чтобы AI-инструменты имели ссылки на источники для каждого религиозного утверждения (подобно сноскам), чтобы любой желающий мог сам убедиться в их достоверности. Также хорошо бы, чтобы алгоритм приучался говорить “я не знаю” (ولا أدري) в тех случаях, где уверенности нет – это тоже часть исламской науки, признавать незнание во избежание вымысла. Таким образом, данный принцип – это о гарантии того, что наши умные системы не станут невольными лже-имамами, распространяющими непроверенные утверждения о вере.
В светской сфере борьбы с дезинформацией тоже появилось понимание, что AI может ее как усиливать, так и бороться с ней. Например, большие платформы внедряют AI-модераторов, которые помечают сомнительные новости для проверки fact-checking[86]. Однако специфической защиты именно религиозной информации, разумеется, нет – это прерогатива внутренних механизмов религиозных организаций. Поэтому аналогом можно назвать разве что общие инициативы по fact-checking и по маркировке контента Википедии и поисковиков ярлыками типа “на основе таких-то источников”. В этом отношении исламский подход уникален: он требует особенно тщательной проверки сведений о религии, считая распространение неточных хадисов и толкований – не просто ошибкой, а грехом. Поэтому исламский кодекс этики для ИИ возводит accuracy of religious content[87] в абсолютный приоритет, даже ценой отказа от части функциональности. Например, лучше ИИ-ассистент ответит “извините, не могу помочь с этим вопросом”, чем начнёт фантазировать на тему шариата. Светские же алгоритмы часто именно “фантазируют” (т.н. hallucination в языковых моделях) – и, хотя это признанная проблема, за рамками религии к ней относятся менее строго. В исламской же перспективе “галлюцинации” ИИ на тему Корана или фетв абсолютно недопустимы. Таким образом, принцип تثبت гарантирует сохранение чистоты исламского учения в эпоху ИИ, и у светского мира нет прямого эквивалента – это ноу-хау, которое мусульмане могут привнести в глобальную этическую дискуссию.
IV. Практические ориентиры внедрения и эксплуатации
- Фильтрация харам-контента и функций (تَرْشِيحُ المُحَرَّمَاتِ). В ханафитском фикхе фильтрация харам-контента (запретного содержания) основывается на строгом принципе устранения греха и средств, ведущих к нему (سد الذرائع). Священный Коран и Сунна неоднократно предостерегают от содействия греху: «… но не помогайте друг другу в грехе и вражде…» (Коран 5:2)[88].
На этапе проектирования заложенные фильтры должны исключать генерацию, обработку и распространение любого харам-контента: порнографии, оскорбления религии, азартных игр, информации, ведущей к греху (например, обучение преступным схемам), недозволенных музыкальных или аудиовизуальных материалов. Датасеты для обучения моделей должны проходить предварительную очистку и модерацию, чтобы ИИ не “учился” на запрещённых образцах. На этапе внедрения обязателен технический контроль: автоматическая блокировка или удаление харам-материалов, запрет на поиск и выдачу результатов по религиозно-запретным тематикам. Примером служат исламские браузеры и платформы (https://halalgoogling.com, SalamWeb), использующие системы фильтрации и пользовательской модерации для недопущения харама. На этапе эксплуатации системы должны обновлять списки запрещённого, учитывать жалобы пользователей, реагировать на появление новых видов нежелательного контента (например, deepfake-порнография, скрытая реклама азартных игр). Функционал ИИ обязан строиться так, чтобы не провоцировать пользователя на греховные действия и даже, напротив, рекомендовать дозволенные и полезные альтернативы.
В светских кодексах этики ИИ вопросы фильтрации обычно ограничиваются юридическими нормами (экстремизм, насилие, детская порнография), но не распространяются на религиозно-запретный контент. Исключение харама из цифровой среды — требование уникальное для исламского регулирования и трактуется как религиозная обязанность, а не корпоративная инициатива или социальная рекомендация.
- Документирование этических ограничений (تَوْثِيقُ القُيُودِ الأَخْلاقِيَّةِ وَالشَّرْعِيَّةِ). В исламском праве большое внимание уделяется прозрачности условий и фиксации всех договорённостей (Коран 2:282). Принцип “мусульмане связаны своими условиями” (الْمُسْلِمُونَ عَلَى شُرُوطِهِمْ) обязывает не только заключать ясные сделки, но и доводить ограничения до сторон. Для технологий ИИ это означает формализацию и явное разъяснение всех этических и религиозных рамок продукта.
Вся документация на этапе проектирования — от технического задания до корпоративной политики — должна содержать подробное описание этических ограничений, допустимых и запретных функций, ссылок на соответствующие нормы шариата. На этапе внедрения все пользовательские инструкции, лицензионные соглашения, help-секции продукта содержат разъяснения: какие возможности доступны, а какие заблокированы (например, отсутствие функций для генерации непристойных образов, блокировка харам-контента, невозможность использования для процентных (риба) финансовых операций). Важно также, чтобы соответствие продукта шариатским стандартам было подтверждено экспертизой или сертификацией факихов. Такой подход повышает уровень доверия среди мусульманских пользователей и облегчает контроль со стороны исламских институтов. В процессе эксплуатации любые изменения, затрагивающие религиозные ограничения, должны сопровождаться обновлением документации и информированием пользователей.
В светской этике ИИ также существует принцип прозрачности (transparency), публикации инструкций и раскрытия ограничений системы. Однако исламская традиция идёт дальше: здесь документирование этических ограничений выступает частью религиозной обязанности и должно содержать прямые ссылки на шариатские источники, а не только юридические или социальные доводы. Это формирует более строгую и однозначную рамку, нежели в большинстве светских кодексов.
- Шариатский аудит и контроль (الرِّقَابَةُ الشَّرْعِيَّةُ). Исламский кодекс предполагает наличие постоянного механизма надзора за соответствием технологий требованиям шариата. Аналог подобного механизма давно действует в сфере исламских финансов: там существуют шариатские советы при банках, которые регулярно проверяют продукты и операции на соответствие нормам (так называемый шариатский аудит). Применительно к AI предлагается похожая модель. Принцип требует, чтобы после запуска ИИ-системы её владельцы не самоуспокаивались, а периодически привлекали независимых шариатских экспертов для ревизии алгоритмов, данных, последствий работы.
Практически реализация этого принципа может выглядеть так: в организации, эксплуатирующей ИИ, создаётся должность или отдел шариатского комплаенса[89] по технологиям. Его сотрудники – люди с двойной компетенцией: разбирающиеся в IT и подкованные в фикхе. Они отслеживают нововведения, апдейты систем на предмет соответствия исламским принципам, описанным в кодексе. Если алгоритм начал проявлять контент, задевающий религиозные чувства, – отдел требует внести исправления. Внешне это похоже на этический аудит ИИ, который уже обсуждается в мире, но с конкретно шариатским чек-листом. Возможно, появятся независимые фирмы или структуры при Духовных управлениях, предлагающие услугу сертификации ИИ-продуктов как “шариатско совместимых” – по аналогии с халяль-сертификацией еды. Они будут проверять и выдавать своё заключение, которое повышает доверие мусульманских потребителей. Государство в мусульманских странах тоже может подключиться: например, как в ОАЭ есть управление по делам искусственного интеллекта, и при нём может быть шариатский комитет, осуществляющий надзор за проектами госорганов. Такой контроль не должен восприниматься как тормоз прогресса – скорее, как навигатор, помогающий избегать скрытых “айсбергов” с точки зрения религии.
В светском контексте всё более популярна тема auditability[90] и сертификации ИИ[91]. Уже разрабатываются стандарты, по которым независимые эксперты проверяют алгоритмы на отсутствие предвзятости, безопасность, соответствие этическим принципам. Это отражено, к примеру, в требованиях проекта EU AI Act: высокорискованные системы должны проходить оценку соответствия перед запуском. Кроме того, компании вроде Google заводят внутренние процессы Ethical review новых функций. Здесь исламский подход вполне гармонирует: шариатский аудит вписывается в общую идею AI governance. Разница лишь в том, что критерии проверки включают религиозные нормы, специфичные для мусульман. Можно сказать, это надстройка над обычным аудитом: помимо общечеловеческих этических рисков, проверяются аспекты халяль/харам. Поскольку светские кодексы такими аспектами не занимаются, наличие шариатского аудита – уникальная черта исламской системы. Она гарантирует более всесторонний контроль (например, обычный аудит не будет отслеживать, появляются ли в обученных данных изображения порнографии или оскорбления пророков – а шариатский обязан отследить). Тем самым, исламский кодекс добавляет уровень качества и ответственности, выходящий за рамки минимальных требований светской этики. В итоге принцип 40 замыкает систему: если все предыдущие принципы устанавливают требования, то шариатский надзор обеспечивает их соблюдение на практике в долговременной перспективе, регулярно соотнося быстро меняющуюся технологическую реальность с неизменными ценностями исламского учения.
Выводы по разделу 2.2.
Проанализированные принципы ханафитского фикха образуют целостную систему ценностных и нормативных ориентиров для регулирования технологий искусственного интеллекта. Они охватывают высшие цели шариата (охрану веры, жизни, разума, имущества, рода/чести) и прикладные нормы, релевантные различным этапам жизненного цикла ИИ – от честности данных и прозрачности алгоритмов до ответственности разработчиков и необходимости шариатского надзора. На каждом шагу видно, что исламская правовая мысль, несмотря на свой средневековый формативный период, обладает удивительной актуальностью и гибкостью для ответа на современные вызовы. Многие положения созвучны общемировым этическим принципам (как недопустимость вреда, транспарентность, ответственность), что демонстрирует универсальность исламских ценностей. Но ряд моментов уникальны – например, запрет изображений или религиозная верификация данных – и отражают особый духовно-нравственный взгляд ислама на природу технологий.
Сопоставление с современными секулярными кодексами этики ИИ показывает как сходство целей – обеспечить справедливый, безопасный, человекоориентированный ИИ – так и различие акцентов. Ислам ставит во главу угла не только права человека, но и права Творца: технологии должны служить не во вред религии, а в идеале – на пользу ей. В светских же документах подобная постановка вопроса отсутствует. Кроме того, исламский подход стремится регламентировать даже тонкие моральные аспекты, которые вне религии могут оставаться “в серой зоне” (к примеру, допустимость тех или иных видов контента, которые законом не запрещены, но порицаются в Исламе). Таким образом, «Исламский кодекс применения ИИ» обогащает глобальную этическую повестку, привнося глубину, основанную на вековых принципах. Его практическое внедрение потребует усилий по интерпретации фикха применительно к конкретным технологиям и тесного сотрудничества между улемами и инженерами. Тем не менее, уже сейчас очевидно, что опора на эти принципы позволит мусульманскому миру уверенно идти вперёд в эру искусственного интеллекта, не изменяя своим фундаментальным ценностям и обеспечивая благо как для уммы, так и для всего человечества.
2.3. Принципы ахляка, применимые в регулировании технологий ИИ
В исламской этической традиции ахляк (нравственность, добродетели) занимает центральное место, формируя внутренний стержень для любого вида деятельности, включая разработку и применение искусственного интеллекта. Суфийские добродетели придают регулированию ИИ глубокий нравственный и духовный фундамент, который отсутствует в большинстве современных светских кодексов.
1. Сабр — терпение и стойкость.
В исламской духовной традиции сабр (терпение) рассматривается как фундаментальная добродетель, через которую человек обретает внутреннюю устойчивость и способность достойно встречать испытания и трудности. Сабр — это не пассивное принятие обстоятельств, а активное и целенаправленное выдерживание испытаний, самоконтроль, умение не поддаваться гневу, отчаянию или поспешным решениям. Суфийские наставники считают, что без сабра невозможно достичь ни совершенства веры, ни высоких этических стандартов поведения. Терпение охватывает три измерения: терпение при бедствиях, при выполнении обязанностей и при отказе от запретного.
В сфере искусственного интеллекта принцип сабра проявляется в нескольких аспектах. На стадии проектирования и обучения систем ИИ требуется вдумчивый подход: разработчик сталкивается с множеством технических сложностей, необходимостью постоянного тестирования, выявления и устранения ошибок. Сабр требует не торопиться с внедрением сырой или недоработанной системы ради коммерческой выгоды, а внимательно дорабатывать алгоритмы, не опуская рук при неудачах. Операторы и владельцы ИИ должны быть готовы к тому, что совершенствование системы — это процесс, а не разовая задача; сбои и ограничения неизбежны, и только терпеливое постепенное улучшение приведёт к стабильности и безопасности. Пользователи ИИ также сталкиваются с необходимостью изучать новые технологии, адаптироваться к обновлениям, учиться использовать интерфейсы[92] — и для этого также нужен сабр, чтобы не отвергать новые решения из-за первых сложностей.
В светских этических кодексах редко встречается идея терпения как добродетели или требования к разработчикам и пользователям технологий. Терпение рассматривается скорее как личная черта характера, чем как профессиональный стандарт. В исламской же традиции сабр — это активная ценность, необходимая для предотвращения вреда, поспешных решений и эмоциональных срывов, что особенно важно при разработке и эксплуатации технологий с высоким риском последствий.
2. Шукр — благодарность.
Шукр (благодарность) — это постоянное осознание и признание того, что все блага, знания и возможности исходят от Всевышнего. В тасаввуфе благодарность является не просто чувством, а состоянием души, формирующим скромность, уважение к окружающим и умение ценить даже малое. Настоящий шукр неразрывно связан с деятельным служением: признание блага выражается в поступках, направленных на благо людей.
В контексте искусственного интеллекта шукр выражается в ряде профессиональных и этических установок. Разработчик, осознающий, что знания и навыки — это неотъемлемые дары, проявляет уважение к труду коллег, честно указывает авторство решений, не присваивает чужие заслуги. Благодарность мотивирует делиться результатами исследований, публиковать данные, создавать открытые программные продукты, которые могут быть полезны всему сообществу. Оператор или владелец системы проявляет благодарность через справедливое отношение к команде, уважение к пользователям и ответственное управление доступом к ИИ. Пользователь выражает благодарность, корректно используя возможности технологии, не злоупотребляя ими, не воспринимая их как нечто само собой разумеющееся. Благодарность в профессиональной среде формирует культуру смирения и доброжелательности.
В большинстве светских кодексов принцип благодарности не формулируется как обязательный. Там, где присутствует призыв к уважению и признанию заслуг, он чаще связан с юридическими или деловыми интересами (например, авторские права), а не с внутренней позицией человека. Исламский подход формирует подлинно благодарную этику труда, что делает коллективные и технологические процессы более гармоничными и справедливыми.
3. Таваккуль — упование на Бога.
Таваккуль — это доверие к Богу при одновременном приложении всех возможных усилий для достижения результата. Это не фатализм и не пассивность, а осознанная уверенность, что после вложенного труда исход дела определяется Божественной волей. Таваккуль учит избавляться от излишнего волнения, гордыни или паники перед возможными неудачами.
Разработка и внедрение ИИ всегда сопряжены с высоким уровнем неопределённости и рисками. Принцип таваккуля требует от специалистов не только тщательной работы, соблюдения стандартов и процедур, но и смирения перед теми результатами, которые находятся вне человеческого контроля. Это помогает сдерживать иллюзии всесилия технологий, предотвращает превращение ИИ в новый объект поклонения, и поддерживает моральный баланс между оптимизмом и осмотрительностью. Таваккуль снижает стресс среди команд, работающих с высокорисковыми технологиями, формирует зрелое отношение к ошибкам и сбоям, обязывает ответственно информировать пользователей о возможных рисках.
Светские кодексы строятся на идее полного человеческого контроля и редко обсуждают психологические аспекты принятия непредвиденных результатов. Принцип таваккуля помогает создавать здоровый психологический климат и смиренное отношение к пределам технологического прогресса.
4. Канааʿ — довольство и отказ от излишеств.
Канааʿ — довольство тем, что есть, и сознательный отказ от избыточных стремлений к материальному и контролю. В суфийской традиции это путь к внутреннему миру и освобождению от страстей, которые часто становятся причиной несправедливости и технологического эгоизма.
В регулировании ИИ канааʿ проявляется как установка на достаточность и этичное распределение ресурсов. Разработчики и организации, руководствующиеся этим принципом, не станут использовать ИИ ради получения монопольной прибыли или манипуляции людьми. Вместо этого акцент делается на полезности, безопасности и реальном общественном благе. Операторы систем избегают эксплуатационного использования данных пользователей, не превращают ИИ в инструмент тотального контроля. Пользователи, в свою очередь, осознанно ограничивают свои запросы, не требуют невозможного и не нарушают права других из-за технологической жадности.
В большинстве светских кодексов отсутствует ограничение на «технологическую жадность», поощряется максимизация прибыли и роста. Исламский подход к довольству задаёт нравственные границы, сдерживает технологический эгоизм и гарантирует справедливость в распределении пользы.
5. Такъуа — богобоязненность.
Такъуа — это высшая форма нравственной осторожности и осознавания Всевышнего в каждой детали жизни. В суфийской традиции такъуа — основа всех других добродетелей: человек постоянно ощущает ответственность не только перед людьми, но прежде всего перед Богом.
Такъуа обеспечивает безусловное соблюдение моральных норм даже в тех ситуациях, когда отсутствует внешний контроль. При проектировании и эксплуатации ИИ этот принцип требует максимальной честности, прозрачности, уважения конфиденциальности, отказа от скрытых манипуляций. Богобоязненность формирует внутренний механизм самоконтроля, предотвращая недобросовестное использование данных, распространение вредоносных алгоритмов и игнорирование долгосрочных последствий.
Ни один светский кодекс не может заменить глубоко внутреннюю, духовную ответственность перед Высшей инстанцией. Принцип такъуа даёт устойчивую мотивацию для соблюдения норм даже тогда, когда никто не контролирует действия человека или организации.
6. Тавадуʿ — смирение и кротость.
Тавадуʿ — это осознание своих ограничений, признание своей зависимости от Бога и уважение к людям. Смирение считается в тасаввуфе ключом к личностному росту и способности принимать советы и критику.
Смирение необходимо на всех этапах жизненного цикла ИИ. Разработчик, практикующий тавадуʿ, всегда признаёт границы своих знаний, обращается к мнению коллег и специалистов других областей, активно внедряет процедуры коллективной оценки решений (шура). Операторы готовы к обучению и улучшению своих компетенций, не скрывают свои ошибки и недочёты. Пользователь уважительно относится к системе, понимая, что технология не совершенна и всегда требует корректировки. Смирение помогает коллективам преодолевать конфликты, содействует честности в отчётности и открытости перед обществом.
Светские этические документы могут формулировать требования к командной работе, но редко акцентируют внимание на смирении как нравственном обязательстве. В исламской традиции тавадуʿ — это неотъемлемая часть профессионализма.
7. Ихлас — искренность и чистота мотивов.
Ихлас — это стремление к чистоте намерений, отсутствие скрытых и корыстных целей. В тасаввуфе искренность — признак зрелой души, способной посвятить себя служению обществу и Богу.
Искренность требует, чтобы декларируемые цели и реальные мотивы работы над ИИ совпадали. Разработчики обязаны не только заявлять о благе для общества, но и реально реализовывать эти цели: не использовать ИИ для манипуляций, не скрывать побочных эффектов, не злоупотреблять положением. Искренность проявляется и в постоянном самоаудите: честное признание собственных ошибок, прозрачность в отчётности перед пользователями, коллегами и регулирующими органами.
В светских кодексах мотивы деятельности почти не подвергаются анализу, акцент делается на результатах. В исламской же традиции истинная этика начинается с чистоты внутренних побуждений, что гарантирует долгосрочную устойчивость и безопасность технологий.
8. Аманат — ответственность и надёжность.
Аманат — доверие, ответственность за данные, знания и возможности. В исламской этике аманат воспринимается как священное обязательство не только перед обществом, но и перед Богом.
Данные, мощности, алгоритмы — всё это вверено специалистам на хранение и использование во благо. Создатели ИИ должны соблюдать конфиденциальность, защищать данные пользователей, не использовать технологию в ущерб обществу или третьим лицам. Аманат обязывает выполнять все договорные и профессиональные обязательства, соблюдать стандарты, гарантировать безопасность системы и предотвращать любые формы халатности. Операторы несут полную ответственность за корректную эксплуатацию, должны быть готовы к аудитам и прозрачному отчёту.
Светские кодексы ограничивают аманат рамками юридической ответственности. В исламской традиции аманат выходит за эти пределы, охватывая духовную, моральную и социальную ответственность.
9. Адл — справедливость.
Адл (справедливость) — это требование равноправия, отсутствия предвзятости, устранения дискриминации и обеспечения баланса интересов. В тасаввуфе справедливость рассматривается как один из высших нравственных принципов.
На этапе проектирования — справедливое распределение ресурсов, избежание внедрения предвзятых алгоритмов (bias[93]), учёт интересов уязвимых групп. На этапе внедрения — обеспечение прозрачности в принятии решений, механизмов обжалования и компенсации в случае ошибки. В процессе эксплуатации — постоянный мониторинг на предмет дискриминации, обеспечение равного доступа к технологии для всех категорий пользователей. Справедливость требует публичного контроля и внедрения институтов независимого аудита.
Хотя справедливость формально присутствует в большинстве современных кодексов, исламская трактовка включает глубокий духовный аспект: ответственность не только перед обществом, но и перед Богом.
10. Сидк — правдивость и честность.
Сидк — это постоянная верность истине, отказ от лжи, манипуляций и искажения фактов. В суфийской этике сидк рассматривается как фундамент всего ахляка.
На этапе проектирования — честное информирование о возможностях и ограничениях системы. В процессе внедрения — открытое признание допущенных ошибок и багов[94], отказ от замалчивания негативных эффектов. На стадии эксплуатации — достоверное предоставление данных, прозрачность перед пользователями и регуляторами, отказ от скрытых манипуляций или подмены понятий. Сидк формирует доверие общества к технологии и её создателям.
В светских кодексах правдивость часто рассматривается в контексте юридической ответственности или стандартов качества, но не как глубоко личное нравственное обязательство.
11. Ихсан — благодеяние и стремление к совершенству.
Ихсан — делать каждое дело максимально хорошо, с заботой о других, превышая минимальные стандарты. В суфийской практике это не только качество исполнения, но и стремление к добру и совершенству.
Проектирование и внедрение ИИ должны быть ориентированы не только на соблюдение формальных требований, но и на максимальную пользу для общества. Принцип ихсана обязывает разрабатывать более эффективные, инклюзивные, доступные и безопасные решения. Ихсан проявляется, например, в проактивной поддержке пользователей, регулярном обновлении систем ради повышения их пользы, а не только ради прибыли.
Светские кодексы ограничиваются минимально необходимыми стандартами. Ихсан обязывает всегда стремиться к лучшему, проявлять инициативу и милосердие.
12. Рахма — милосердие и гуманность.
Рахма — это всеобъемлющее милосердие, забота и сострадание ко всем творениям. В тасаввуфе рахма — одна из высших целей духовного пути.
Милосердие проявляется при проектировании систем, способных помогать нуждающимся, обеспечивать поддержку уязвимым группам, минимизировать негативные последствия. Рахма требует учитывать не только эффективность, но и эмоциональное состояние пользователей, предотвращать психологический и социальный вред, а также внедрять ИИ преимущественно в сферах благотворительности, здравоохранения и образования.
В светских кодексах гуманность обычно декларируется абстрактно, без акцента на милосердии как доминирующем мотиве. В исламской традиции милосердие — основа этики.
13. Адаб и хая — этикет и скромность.
Адаб — это правила уважительного, корректного, достойного поведения во всех сферах жизни. Хая — скромность, целомудрие, сдержанность в действиях и словах. Суфийская этика считает, что без адаба и хая нет истинной духовности.
В разработке ИИ принцип адаба требует избегать создания непристойных, агрессивных, оскорбительных алгоритмов и интерфейсов. Хая предписывает фильтрацию аморального и развратного контента, заботу о защите нравственности пользователей. Эти принципы обязывают к корректности общения, созданию безопасных цифровых сред, запрету на распространение бранных выражений, клеветы и шантажа через ИИ.
В светских кодексах этикет и скромность не считаются обязательными требованиями к системам и пользователям, тогда как в исламской парадигме это неотъемлемая часть этического ландшафта.
14. Хикма — мудрость и осмотрительность.
Хикма — способность предвидеть последствия, находить баланс между инновацией и традицией, принимать верные решения в сложных ситуациях. Мудрость — итог нравственного и интеллектуального опыта.
Мудрость требует взвешенно подходить к внедрению новых технологий, анализировать риски, предусматривать долгосрочные последствия для общества и личности. Это предполагает обязательное привлечение богословов, специалистов по этике и праву на всех этапах жизненного цикла ИИ. Важно не только учитывать текущую пользу, но и оценивать потенциальные угрозы, формировать механизмы предотвращения вреда.
Светские кодексы редко требуют глубокого анализа последствий с учётом морально-философских критериев. Исламская традиция настаивает на интеграции мудрости как системообразующего элемента.
15. Мас’улия — подотчётность перед Богом и людьми.
Мас’улия — это полная ответственность за свои поступки перед Всевышним и обществом. В тасаввуфе подотчётность связывается с честностью, самокритикой, готовностью дать отчёт за каждое действие.
Создатели и пользователи ИИ должны выстраивать прозрачные механизмы аудита, отчётности и общественного контроля. Мас’улия требует документирования этических ограничений, ведения внутреннего и внешнего аудита, информирования общества о целях, принципах и рисках использования технологий. Каждый участник процесса — от программиста до пользователя — обязан быть готовым к отчёту не только перед регулирующими органами, но и перед своей совестью.
В светских кодексах акцент делается преимущественно на юридическую подотчётность. Исламская традиция охватывает также духовно-нравственную ответственность, не ограничивающуюся рамками текущего законодательства.
16. Ихсан фи аль-‘амаль — качество исполнения.
Аллах любит совершенное выполнение дел — это фундаментальный тезис исламской этики труда. Ихсан фи аль-‘амаль означает доведение каждого дела до наилучшего состояния, заботу о деталях, недопущение халтуры.
Требуется максимальное качество проектирования, тестирования, внедрения и сопровождения ИИ-систем. Каждый этап требует тщательного контроля, проверки гипотез, документирования изменений и внедрения процедур по обеспечению качества (QA[95]). Стремление к совершенству обеспечивает безопасность, снижает риски сбоев и вреда для пользователей.
В светских кодексах качество часто определяется экономическими критериями. В исламской этике качество связано с нравственным совершенством и стремлением к довольству Всевышнего.
17. Шура — консультативность.
Шура — коллективное принятие решений, совет, консилиум специалистов. В исламской традиции обязательное обсуждение сложных вопросов с учётом мнения разных дисциплин.
Решения о разработке, внедрении и эксплуатации ИИ должны приниматься не единолично, а с привлечением экспертов в области шариата, этики, программирования, права, психологии и других заинтересованных сторон. Это снижает вероятность ошибок, формирует всесторонний взгляд на проблему, способствует интеграции моральных и технических стандартов.
В большинстве светских кодексов коллективность или междисциплинарность рассматривается как факультативная мера. В исламской этике шура — религиозное и нравственное обязательство, нарушать которое недопустимо.
Выводы по разделу2.3.
Каждый из рассмотренных принципов ахляка не только восполняет недостатки существующих светских кодексов, но и создаёт глубокую внутреннюю, нравственную и социальную основу для регулирования современных технологий. Такой подход обеспечивает не только техническую, но и духовную безопасность развития ИИ на благо общества.
Соотношение исламских принципов с современными светскими стандартами в сфере этики искусственного интеллекта
В рамках этического регулирования искусственного интеллекта (ИИ) исламские нормы — как из матуридитской акыды, так и из ханафитского фикха и ахляка (тасаввуфа) — во многом перекликаются с современными светскими стандартами (UNESCO Recommendation on the Ethics of AI, EU AI Act, IEEE Ethically Aligned Design, ISO/IEC 42001). Однако между ними существуют как существенные совпадения, так и фундаментальные различия.
Совпадения и области пересечения:
- Принципы справедливости, недискриминации и социальной пользы (маслаха, адл) находят отражение во всех ключевых светских кодексах (UNESCO, EU AI Act, IEEE, ISO/IEC 42001). В обоих подходах подчеркивается необходимость предотвращения вреда, уважения к достоинству человека и приоритета общественного блага.
- Ответственность, прозрачность и подотчётность являются базовыми требованиями как в исламском праве (аманат, сидк, мас’улия), так и в светских стандартах (особенно в ISO/IEC 42001 и IEEE).
- Защита частной жизни, имущественных прав и данных соответствует как принципам ханафитского фикха (хифз аль-мал, хифз аль-‘ирд), так и международным нормам (GDPR, ISO/IEC 42001).
- Инклюзивность и уважение к уязвимым группам, а также этические требования к прозрачности и объяснимости решений ИИ отражены и в исламских, и в светских документах.
Фундаментальные различия:
- Мотивация и источники обязательности. В Исламе все этические и правовые принципы имеют своим источником Божественное Откровение, а высшей целью этического регулирования является довольство Аллаха и соблюдение шариата. Светские стандарты строятся на консенсусе, рациональных и гуманистических основаниях, а обязательность норм определяется соглашением между людьми.
- Принцип единобожия (таухид) и предупреждение против технообожествления (только Аллах обладает совершенным знанием и властью) отсутствуют в светских кодексах как базовая доктрина, тогда как в Исламе они лежат в основании любого регулирования.
- Религиозные и духовные обязанности (хифз ад-дин, хифз аль-акль, ахляк, сабр, таваккуль и др.) уникальны для исламской традиции и не имеют прямых аналогов в светских стандартах. Религиозная мотивация поведения, осознание Судного дня, учёт ахира (вечности) и приоритет сохранения веры ставятся в центр оценки любых технологических инноваций.
- Концепция свободы воли и личной ответственности в исламе включает и метафизическую ответственность человека перед Богом, тогда как в светских документах ответственность носит только юридический и социальный характер.
- Невозможность делегирования моральной субъектности ИИ — фундаментальная установка Ислама, противоположная обсуждаемым в некоторых секулярных подходах идеям о правосубъектности или «этической автономии» ИИ.
Таким образом, Исламский Кодекс охватывает все ключевые сферы, заложенные в современных светских стандартах, но строит их на принципиально иной — духовной и религиозной — основе. В то время как светские кодексы акцентируют права человека, консенсус и технологическую ответственность, исламские нормы поднимают эти вопросы до уровня религиозной и вечной ответственности, связывая технический прогресс с поклонением и служением Богу. Это делает исламский подход комплексным, универсальным и ориентированным не только на благо человека, но и на соблюдение высших смыслов существования.
ГЛАВА 3. ПРОЕКТ «ИСЛАМСКОГО КОДЕКСА ПРИМЕНЕНИЯ ИИ» И ЕГО РЕАЛИЗАЦИЯ
3.1. Структура и содержание «Исламского кодекса применения ИИ»
Разработка нормативной базы применения искусственного интеллекта (ИИ) в исламском обществе требует комплексного, системного и богословски выверенного подхода, объединяющего теологические принципы матуридитской акыды, правовые нормы ханафитского фикха и этические ориентиры ахляка. В условиях стремительного развития технологий ИИ и их проникновения в самые различные сферы жизни мусульман, становится необходимым формирование целостного Исламского Кодекса применения ИИ, который способен интегрировать вечные ценности Ислама с актуальными вызовами цифровой эпохи. Данный Кодекс не только отражает богословские основы, но и адаптирует международные стандарты цифровой этики (ЮНЕСКО, IEEE, ЕС и др.) под уникальные потребности исламских обществ.
Цель настоящего параграфа — обосновать и систематически раскрыть структуру «Исламского Кодекса применения ИИ», определить логику и религиозные основания выделения его ключевых разделов, а также показать их прикладную значимость для различных участников жизненного цикла ИИ — разработчиков, пользователей, религиозных экспертов и исламских организаций.
3.1.1. Методологические основы структурирования Кодекса
Исходя из анализа шариатских источников (Коран, Сунна, иджма’, кыяс), а также с учётом теологических принципов матуридитской акыды, выстроена система, в которой:
- вероубеждение (акыда) определяет мировоззренческие и антропологические ориентиры для цифровых технологий;
- фикх формулирует конкретные правовые и процедурные рамки допустимости и запрета технологических решений;
- ахляк (нравственные добродетели) задаёт внутреннюю этическую мотивацию, обеспечивая добровольное и осознанное соблюдение норм даже при отсутствии внешнего контроля.
Структура Кодекса строится на принципе приоритета религиозных норм над технологическими, подчёркивая, что любые достижения ИИ допустимы только при условии их соответствия шариату. Ключевыми задачами стали: предотвращение вреда, сохранение религии, жизни, разума, имущества и чести (макасид аш-шариа), а также формирование устойчивой среды для ответственного инновационного развития в исламском обществе.
3.1.2. Общая структура и обоснование разделов Кодекса
В итоговой редакции Исламского Кодекса применения ИИ утверждены следующие базовые разделы:
- Общие положения
- Исламские принципы и ключевые ценности (по трем слоям: матуридитская акыда, ханафитский фикх, ахляк)
- Практические требования и процедуры проектирования, внедрения и эксплуатации
- Механизмы контроля, аудита и обновления Кодекса
- Заключительные положения и перспективы развития
Рассмотрим содержание и логику построения каждого раздела.
1) Общие положения
Этот раздел задаёт рамку Кодекса: формулирует цель, задачи, сферу применения, глоссарий ключевых терминов (ИИ, исламский контекст, макасид аш-шариа и др.), а также принцип добровольности и персональной ответственности. Здесь же закреплён тезис о верховенстве шариатских норм при внедрении и использовании ИИ. Указывается, что применение Кодекса актуально как для религиозных, так и для гражданских ИИ-продуктов (банкинг, медицина, образование и др.), а также исследовательских проектов, ещё не вынесенных в публичное пространство.
Такой подход соответствует исламскому принципу прозрачности и ясности: любые участники процесса — от разработчика до пользователя — изначально информированы о целях и задачах Кодекса и принимают его на добровольной, но осознанной основе.
2) Исламские принципы и ключевые ценности
Данный раздел является ядром Кодекса и впервые в мировой практике структурирован по тройной системе:
а) Принципы матуридитской акыды
Здесь системно выделяются теологические основания, имеющие нормативное значение в отношении ИИ:
- Таухид (единобожие) и недопустимость технообожествления: ИИ не может выступать объектом слепого почитания или заменять божественную волю;
- Свобода воли и личная ответственность: любые решения с участием ИИ, особенно затрагивающие религиозные и этические вопросы, принимаются с пониманием личной ответственности человека перед Аллахом;
- Роль разума (акл) наряду с откровением: решения в сфере ИИ должны опираться как на религиозные, так и на рациональные основания;
- Природа знания и достоверность: только верифицированные и разрешённые источники данных могут быть использованы для обучения и эксплуатации ИИ;
- Справедливость, принцип меры, маʿруф и мункар: все технологические процессы должны быть направлены на распространение пользы и предотвращение вреда;
- Мудрость и предосторожность: внедрение новых технологий требует тщательного анализа рисков и долгосрочных последствий.
б) Принципы ханафитского фикха
Раздел охватывает более тридцати универсальных фикховых принципов, среди которых: Принцип намерения (ния), базовый принцип дозволенности, уверенности, устранения вреда, облегчения при затруднении, необходимости, прощения ошибок, справедливости, ответственности, соответствия цели и средств, предотвращения средств к греху, приоритета пользы над вредом, истихсана (выбор наилучшего решения), кияса, обязательности необходимых средств, дохода с ответственностью, постоянного контроля, предотвращения зла, коллективной обязанности, предосторожности в сомнительном и адаптации к времени и месту.
Особо подчёркивается приоритет высших целей шариата — сохранения религии, жизни, разума, имущества и чести — как главного критерия допустимости внедрения и эксплуатации ИИ.
в) Принципы ахляка
На третьем уровне акцент делается на нравственные добродетели: сабр (терпение), шукр (благодарность), таваккуль (упование на Аллаха), канааʿ (довольство), такъуа (богобоязненность), тавадуʿ (смирение), ихлас (искренность), аманат (надёжность), адл (справедливость), сидк (честность), ихсан (стремление к совершенству), рахма (милосердие), адаб и хая (этикет и скромность), хикма (мудрость), масулия (подотчётность), ихсан фи аль-‘амаль (качество исполнения), шура (консультативность).
Таким образом, раздел «Исламские принципы и ключевые ценности» формирует уникальный комплекс из богословских, правовых и этических норм, определяя недопустимость делегирования ИИ роли морального агента, а также необходимость обязательного участия экспертов и регулярного аудита на соответствие исламским стандартам.
3) Практические требования и процедуры проектирования, внедрения и эксплуатации
Здесь зафиксированы подробные нормы для всех этапов жизненного цикла ИИ:
- На стадии проектирования — первичная шариатская экспертиза, риск-анализ, «халяль by design», участие религиозных специалистов.
- Внедрение и эксплуатация — религиозно-этический аудит, верификация на отсутствие харам-элементов, механизмы обратной связи, прозрачность и информирование пользователя, соблюдение стандартов защиты данных (с учётом локальных законов, например, 152-ФЗ[96]).
- Контроль и обновление — регулярный внутренний и внешний аудит, независимая экспертиза, документирование изменений и наличие процедур экстренного отката изменений, а также постоянное совершенствование фильтров харам-контента.
- Эти процедуры позволяют реализовать идею непрерывного контроля и корректировки в духе исламской мурокабы — внутреннего и внешнего надзора за соблюдением религиозных и этических стандартов.
4) Механизмы контроля, аудита и обновления Кодекса
В данном разделе определяются:
- Создание института религиозного уполномоченного (или комиссии) по нормам Ислама в применении ИИ при исламских организациях;
- Ведение открытого реестра сертифицированных исламских ИИ-решений;
- Разработка формата регулярного обучения и обмена опытом между техническими специалистами, богословами и аудиторами;
- Установление процедур пересмотра и актуализации Кодекса с учётом технологического развития и фетв современных исламских учёных.
5) Заключительные положения и перспективы развития
В финальном разделе подчеркивается гармония между инновациями и вечными нормами Ислама, укрепление доверия внутри уммы, межмазхабное сотрудничество и открытость для дальнейшей доработки Кодекса в ответ на вызовы эпохи (например, вопросы трансгуманизма, автономных систем, ИИ в медицине и биотехнологиях и др.). Признаётся необходимость постоянного обновления и адаптации норм Кодекса — с опорой на классический принцип адаптации к времени и месту.
3.1.3. Обоснование и уникальность исламского подхода
Исламский Кодекс применения ИИ отличается от большинства современных секулярных кодексов не только глубоким погружением в правовые и богословские источники, но и интеграцией нравственных ориентиров, которые не поддаются формализации в рамках светских стандартов. Так, например, такие категории, как халяль и харам, макасид аш-шариа, искренность, богобоязненность и ответственность перед Всевышним, выводятся за пределы светских понятий права и этики, формируя уникальное поле для регулирования технологий в исламском обществе.
Кроме того, исламский подход обладает высокой степенью гибкости (истихсан, кияс, учёт урфа и обстоятельств времени и места), что позволяет оперативно адаптировать кодекс под новые технологические вызовы без утраты богословской легитимности и согласия с классическими источниками.
3.1.4. Сравнительный анализ с международными стандартами
При разработке Кодекса был проведён тщательный сравнительный анализ с основными международными документами (ЮНЕСКО, IEEE[97], ЕС и др.):
- Принципы человекоцентричности, справедливости, прозрачности, предотвращения вреда, приватности, подотчётности и инклюзивности, закреплённые в документах ЮНЕСКО и IEEE, согласуются с исламскими положениями, но исламский Кодекс расширяет и углубляет эти требования за счёт введения категорий духовной чистоты, халяля и харама, аманата и ихсана.
- В отличие от секулярных моделей, в Исламском Кодексе подчёркнуто, что финальная ответственность лежит на человеке, а не на алгоритме, и любые религиозно значимые решения могут быть вынесены только с участием квалифицированного учёного или коллегиального шариатского совета.
- Фиксация особых процедур по фильтрации харам-контента, обязательная религиозная верификация источников данных и обучение моделей на халяль-датасетах существенно отличаются от рекомендаций светских регуляторов.
3.1.5. Принципы реализации: от теории к практике
Для оценки жизнеспособности и прикладной применимости Кодекса была проведена апробация на примере исламского чат-бота для шариатских консультаций (см. Приложение №2). Данный проект реализует архитектуру Retrieval-Augmented Generation (RAG) с многоуровневой религиозной фильтрацией, контролем качества и обратной связью. Практика внедрения показала, что сформулированные принципы действительно могут быть реализованы на уровне кода, алгоритмических фильтров и организационных процедур, а участие религиозных экспертов на всех этапах позволяет достичь высокой степени доверия со стороны пользователей и религиозных институтов.
Анализ практических кейсов (исламский банкинг, медицинские платформы, образовательные системы, умные города) показывает универсальность предложенной структуры Кодекса и возможность её адаптации к различным сферам, что подтверждается выводами по главам 1 и 2 работы.
3.1.6. Значение для исламского общества и дальнейшие шаги
Исламский Кодекс применения ИИ, опираясь на системный тройной фундамент — акыду, фикх и ахляк — способен обеспечить:
- Реальную богословскую и социальную легитимность цифровых решений;
- Защиту интересов личности, семьи и общества;
- Снижение риска исламских и общечеловеческих этических нарушений в эпоху цифровизации;
- Возможность интеграции с международными стандартами без утраты религиозной аутентичности;
- Формирование новой научной дисциплины — исламской теологии технологий.
Следующим этапом видится создание и институционализация специализированных исламских центров технологической экспертизы, постоянное обучение специалистов, международное сотрудничество и регулярное обновление Кодекса по мере развития ИИ и накопления новых шариатских кейсов.
3.2. Методология и результаты апробации: пример шариатского чат-бота
3.2.1. Введение: практическая значимость апробации
В предыдущем параграфе был подробно рассмотрен проект «Исламского Кодекса применения ИИ» — уникального нормативного документа, интегрирующего богословские, правовые и нравственные ориентиры в единую систему для регулирования новых технологий. Однако для оценки жизнеспособности предложенного подхода, его соответствия целям шариата и требованиям исламской уммы, крайне важна эмпирическая апробация на конкретных технологических кейсах. С этой целью была выбрана задача разработки и тестирования шариатского чат-бота — интеллектуального помощника, способного отвечать на религиозные вопросы в формате диалога, строго в рамках исламских норм и без искажения исходных источников.
Чат-боты, генерирующие религиозный или правовой контент, представляют особый интерес для исламского этического анализа. С одной стороны, они являются проводниками знаний, повышая доступность шариатских предписаний для широкой аудитории. С другой — несут риск ошибочной интерпретации священных текстов, подмены экспертной оценки машинным выводом, а также угрозу приватности пользователя. Следовательно, апробация шариатского чат-бота позволяет одновременно проверить на практике действенность принципов Кодекса, выявить возможные затруднения, а также продемонстрировать конкретные организационно-технические решения для минимизации рисков.
По состоянию на июнь 2025 года читатель данной работы может ознакомиться с данным чат-ботом по ссылке в QR-коде, а описанием в Приложении №2.
3.2.2. Методологические основания и структура апробации
Апробация проводилась на основе системного подхода, сочетающего три направления:
- нормативно-богословское (соответствие матуридитской акыде, фикху и ахляку, зафиксированным в Кодексе);
- инженерно-техническое (разработка архитектуры и алгоритмов в соответствии с принципами «халяль by design»);
- организационно-процессное (механизмы контроля, аудита, валидации и управления данными).
Такой подход обеспечил полноту охвата всех стадий жизненного цикла ИИ — от проектирования и обучения до эксплуатации, тестирования и постоянного совершенствования системы.
Целями апробации являлись:
- Проверка работоспособности исламских норм и требований, интегрированных в архитектуру цифровой системы.
- Демонстрация технической реализуемости принципов Кодекса в реальном программном продукте.
- Выявление организационных и технологических барьеров для масштабирования исламских стандартов на практике.
- Получение эмпирических данных для последующей доработки и адаптации нормативной базы.
3.2.3. Описание архитектуры шариатского чат-бота
В качестве тестовой платформы был реализован Telegram-бот, функционирующий на базе языка Python 3.11 и библиотеки aiogram[98], с полным соблюдением асинхронной архитектуры. Ключевое отличие данного чат-бота — ориентация на шариатскую экспертизу и религиозную корректность: ответы формируются исключительно на основании авторитетных исламских источников, с применением Retrieval-Augmented Generation (RAG)[99] и собственной базы знаний, представленной в формате FAISS[100]-индекса.
Основные модули и функциональные блоки
- Классификация сообщений: система анализирует входящие запросы и определяет, относится ли вопрос к шариату. Для этого реализован специальный классификатор, использующий контекст последних сообщений и предшествующих ответов, что позволяет избежать ложноположительных срабатываний и повысить релевантность обработки.
- Генерация и фильтрация ответов: для религиозных вопросов применяется модуль RAG, который извлекает релевантные фрагменты знаний из FAISS-индекса, формирует связный контекст и генерирует ответ на базе актуальных исламских норм, не допуская добавления собственных интерпретаций или выход за пределы исходных источников.
- Проверка и аудит: каждый ответ вместе с исходным запросом направляется в отдельный верификационный бот, что обеспечивает дополнительный уровень контроля (human-in-the-loop[101]), позволяя оперативно обнаруживать и корректировать ошибки, а также вести протоколирование для аудита.
- Управление пользователями и историей: реализовано хранение истории диалогов, что даёт возможность отслеживать последовательность вопросов, проводить аналитику и обеспечивать непрерывность религиозного консалтинга.
- Администрирование: встроены инструменты массовых уведомлений, настройки примеров запросов, фильтрации нерелевантных обращений, а также технический мониторинг с помощью логирования.
Принципы безопасности и соответствия шариату
На всех этапах жизненного цикла чат-бота обеспечивалось соответствие принципам, зафиксированным в Исламском Кодексе применения ИИ:
- Использование только проверенных и дозволенных данных (честность и халяльность источников).
- Исключение автоматизации вынесения окончательных шариатских решений (бот не заменяет факиха).
- Многоуровневая фильтрация и блокировка харам-контента и сомнительных сценариев.
- Информирование пользователя о статусе (ответ от бота, а не живого муфтия), прозрачность логики и возможности обратной связи.
- Регулярный аудит системы с привлечением религиозных экспертов.
3.2.4. Критерии оценки и стандарты проверки
Для оценки эффективности апробации были выработаны следующие критерии (на основе Кодекса и международных стандартов):
- Корректность религиозных ответов: ответы должны полностью соответствовать нормам шариата (халяльность, отсутствие искажений, верификация богословами).
- Прозрачность и объяснимость: каждое религиозное постановление сопровождается ссылками на источник, пользователь осведомлён о границах компетенции бота.
- Безопасность и приватность: данные пользователей обрабатываются в соответствии с требованиями шариата и действующего законодательства (GDPR, 152-ФЗ и др.), исключено несанкционированное распространение информации.
- Наличие механизма обратной связи: пользователи могут обжаловать ответ или запросить дополнительную консультацию у живого эксперта.
- Техническая надёжность: система устойчива к сбоям, поддерживает актуальность базы данных, защищена от внешних атак и эксплойтов.
Для каждого критерия был выстроен собственный чек-лист, соответствующий архитектуре Кодекса и требованиям международных этических актов (ЮНЕСКО, IEEE, ЕС).
3.2.5. Результаты апробации: анализ и обсуждение
Религиозная корректность и доверие пользователей
Результаты тестирования показали, что применение архитектуры Retrieval-Augmented Generation и строгой фильтрации религиозных источников позволяет достичь высокого уровня корректности религиозных ответов. Все сгенерированные ответы подвергались дополнительной экспертизе со стороны шариатских специалистов, что исключило ошибки богословского характера и обеспечило доверие пользователей.
Особенно важно, что система оказалась устойчива к вопросам, выходящим за рамки исламской тематики: такие обращения классифицировались и перенаправлялись в отдельный модуль, исключая риск религиозных или светских искажений.
Прозрачность и аудит
Функция автоматической пересылки ответов на проверку обеспечивает «человека в цепи» (human-in-the-loop) — принцип, прямо предписанный исламскими и международными стандартами. Такой подход позволяет не только минимизировать риск религиозных ошибок, но и формирует культуру регулярного аудита и коллективной ответственности.
Информационная безопасность и защита данных
Встроенная система управления пользователями, ограничение доступа к истории сообщений и гибкая настройка прав обеспечили соответствие стандартам приватности. Вся обработка персональных данных велась согласно шариатским предписаниям и требованиям современного законодательства.
Адаптация к пользовательским сценариям
В ходе апробации была выявлена высокая гибкость системы: бот эффективно справляется с самыми разными сценариями — от простых справочных вопросов до сложных кейсов по исламскому праву, финансовым вопросам, обрядам. Механизм дообучения и уточнения запросов позволил минимизировать число «сложных случаев», требующих участия эксперта.
Ограничения и риски
Несмотря на успехи, были зафиксированы и ограничения:
- Сложность в обработке комплексных правовых споров, где требуется индивидуальное фетвование.
- Риск злоупотребления открытыми формами запроса (например, попытки обойти фильтры или получить харам-информацию).
- Необходимость постоянного расширения базы знаний, привлечения экспертов и совершенствования фильтров.
Эти ограничения были учтены в доработке архитектуры и рекомендациях для дальнейшего масштабирования.
3.2.6. Внедрение принципов матуридитской акыды, фикха и ахляка на практике
Одним из ключевых нововведений апробации стало внедрение трёхслойной системы религиозного регулирования, закреплённой в Кодексе:
1. Теологические ориентиры (матуридитская акида):
- Отказ от технообожествления: чат-бот не позиционируется как носитель высшей истины, все решения дублируются ссылкой на источник и разъяснением ограниченности компетенции.
- Принцип предопределения и личной ответственности: пользователь информирован о том, что решения носят справочный характер и требуют осознанного выбора.
- Применение рационального и богословского фильтра при обработке данных.
2. Нормативно-правовые стандарты (ханафитский фикх):
- Императивное соблюдение принципов дозволенности, намерения, устранения вреда и справедливости при обработке запросов.
- Верификация религиозного контента и автоматическая блокировка сценариев, противоречащих макасид аш-шариа (сохранению религии, жизни, разума, имущества и чести).
- Защита имущественных прав (например, исключение вопросов, затрагивающих недозволенные финансовые инструменты).
3. Этические добродетели (ахляк):
- Внедрение принципов сабр, шукр, аманат, адл, сидк и других: команда проекта осознанно реализует их через внутренние протоколы взаимодействия, добровольное признание ошибок и публичный отчёт о работе системы.
- Включение механизма коллективной ответственности и консультативности (шура) при вынесении решений.
3.2.7. Чек-листы и инструменты самоконтроля
На основе апробации сформированы чек-листы для:
- разработчиков (принципы и этапы «халяль-by-design», регулярный аудит, этичный сбор данных),
- религиозных экспертов (правила фильтрации и сертификации контента, организация шариатского надзора),
- пользователей (права на обращение и апелляцию, информирование о правилах пользования ботом).
Внедрение этих чек-листов доказало свою эффективность в поддержании постоянного контроля соответствия стандартам и формировании культуры этической ответственности.
3.2.8. Выводы и рекомендации по дальнейшей апробации
Практическая апробация шариатского чат-бота подтвердила принципиальную реализуемость и актуальность Исламского Кодекса применения ИИ для религиозных и этически нагруженных сценариев. В реальных условиях были достигнуты следующие эффекты:
- Повышение религиозной корректности и доверия со стороны аудитории.
- Минимизация рисков харам-контента и религиозных искажений.
- Внедрение эффективных инструментов технического, религиозного и организационного аудита.
- Формирование практической базы для масштабирования исламских стандартов на другие сферы применения ИИ.
Ключевыми условиями дальнейшего успеха являются:
- Постоянное обновление базы знаний и архитектуры в диалоге с экспертным сообществом.
- Разработка и интеграция новых модулей проверки, в том числе с учётом региональных норм и обычаев.
- Расширение института религиозного аудита и независимой сертификации.
3.3. Перспективы масштабирования и рекомендации по внедрению Кодекса
3.3.1. Значение масштабируемости и универсальности Исламского Кодекса ИИ
Современное мусульманское общество, являясь неотъемлемой частью глобального информационного пространства, сталкивается с необходимостью интеграции новейших технологий искусственного интеллекта в экономику, образование, здравоохранение и социальное управление. Разработка и принятие «Исламского Кодекса применения ИИ» (далее — Кодекса) не ограничиваются рамками сугубо нормативного документа: это концепция, формирующая цивилизационный ответ на вызовы цифровой эпохи и служащая инструментом повышения технологической, образовательной и этической конкурентоспособности исламской уммы.
Масштабирование Кодекса и его внедрение в ключевые сферы жизнедеятельности мусульман не только обеспечивает соответствие новым реалиям, но и позволяет создавать условия для устойчивого развития с опорой на высшие шариатские ценности: сохранение веры, жизни, разума, имущества и чести (макасид аш-шариа). Такой подход предполагает гибкую адаптацию к разным социокультурным, экономическим и правовым системам — от государств с преобладающим мусульманским населением до исламских диаспор в секулярных странах.
3.3.2. Ключевые направления масштабирования и адаптации Кодекса
3.3.2.1. Влияние искусственного интеллекта на уровень знаний и интеллектуальный потенциал уммы
Одной из фундаментальных задач внедрения ИИ в исламском обществе становится повышение уровня знаний — как богословских, так и светских. В условиях, когда количество доступной информации постоянно растёт, а её качество и достоверность остаются под вопросом, искусственный интеллект способен радикально изменить ландшафт образования и религиозного просвещения.
ИИ-платформы позволяют автоматизировать процессы поиска и фильтрации релевантной информации, создавать персонализированные образовательные маршруты, анализировать индивидуальные пробелы в знаниях и формировать рекомендации для их устранения. Особое значение это приобретает для исламского образования: чат-боты, адаптивные онлайн-курсы, системы проверки знаний по Корану, хадисам и фикху (например, проекты Quran Tutor AI, MeeM Academia и др.), а также специализированные рекомендательные сервисы для получения фетв, обеспечивают доступ к богословской экспертизе независимо от времени и места.
Внедрение ИИ в религиозное образование даёт сразу несколько эффектов:
- Снижение барьера входа: даже те члены уммы, у кого нет возможности обучаться у традиционного учителя, получают доступ к проверенным знаниям.
- Персонализация: ИИ выявляет слабые места в знаниях, подбирает индивидуальные задания и материалы, поддерживает обратную связь и мотивирует к регулярному обучению.
- Повышение доверия: системы, прошедшие шариатскую сертификацию, фильтруют ошибочный, противоречивый и харам-контент, обеспечивая качество просвещения.
- Обеспечение инклюзивности: ИИ-приложения адаптируются под разные языки, культурные коды, особенности восприятия (дети, взрослые, люди с ОВЗ).
Эффект от масштабного внедрения таких решений выходит далеко за рамки религиозной сферы: возрастает общий интеллектуальный потенциал уммы, повышается квалификация кадров, формируется культура lifelong learning (непрерывного образования), а значит, укрепляется конкурентоспособность мусульманских обществ в глобальной экономике знаний.
3.3.2.2. Применение ИИ для роста производительности, эффективности и конкурентоспособности мусульманских проектов
ИИ-сервисы сегодня охватывают практически все сферы деятельности — от финансов и управления до медицины, образования, производства и городского хозяйства. Для мусульманских сообществ это открывает уникальные возможности:
- Автоматизация рутинных задач (учёт, обработка данных, анализ рисков) позволяет высвободить ресурсы для творчества, лидерства и развития.
- Интеллектуальные помощники способны выполнять роль персонального ассистента, поддерживать бизнес-процессы, осуществлять мониторинг шариатской чистоты операций (например, в исламском банкинге), сопровождать сделки и контролировать соответствие контрактов нормам халяль.
- Платформы поддержки принятия решений (decision support systems[102]) дают мусульманским предпринимателям, инвесторам, руководителям мечетей и образовательных центров аналитические инструменты, которые раньше были доступны лишь транснациональным корпорациям.
- Автоматизация юридической и религиозной экспертизы с использованием ИИ-кластеров для анализа сложных кейсов (муфтиятов, исламских судов) позволяет повысить скорость и качество вынесения решений, снизить человеческий фактор и вероятность ошибки.
Современные исламские финтех-стартапы (Al Rajhi Bank, Wethaq, Amanie Advisors) уже внедряют ИИ для автоматического анализа контрактов, детектирования риба, аудита сделок на соответствие шариату, а также для поддержки внутреннего контроля и комплаенса. В здравоохранении ИИ помогает анализировать медицинские данные, выявлять болезни на ранних стадиях, формировать индивидуальные рекомендации для мусульманских пациентов с учётом их религиозных ограничений (диета, пост, допустимые лекарства).
Таким образом, интеграция ИИ позволяет мусульманским организациям и предпринимателям увеличить свою производительность, снизить издержки, выйти на новые рынки и сделать свои услуги максимально доступными, эффективными и соответствующими принципам халяль. Это усиливает экономическую самостоятельность уммы, даёт новые рабочие места и создаёт положительный образ исламских институтов как инновационных и ориентированных на общественное благо.
3.3.2.3. ИИ — инструмент цифровой суверенизации и интеллектуального лидерства
Для исламских государств и диаспор, находящихся в условиях цифрового неравенства и зависимости от внешних технологий, внедрение собственного исламского ИИ становится фактором национальной и цивилизационной безопасности. Кодекс, формализующий этические и правовые стандарты, позволяет формировать независимую инфраструктуру — от дата-центров и облачных платформ до специализированных исламских ИИ-моделей.
Такой подход помогает:
- Избежать рисков навязывания чуждых культурных ценностей через глобальные ИИ-платформы;
- Обеспечить защиту персональных данных и религиозных тайн;
- Развивать собственную школу исламского технологического инжиниринга и богословской экспертизы.
3.3.3. Институционализация исламского регулирования ИИ: необходимость создания Комитета по сертификации и обучению
3.3.3.1. Аргументация необходимости Комитета по сертификации исламских ИИ-технологий
Масштабное внедрение ИИ в жизнь мусульман невозможно без создания специализированного института — Комитета (или Совета) по сертификации и сопровождению исламских ИИ-технологий. Его функции включают:
- Проведение шариатской экспертизы ИИ-сервисов, приложений, платформ;
- Выдача сертификатов халяльности для ИИ-продуктов (по аналогии с халяль-сертификацией продуктов питания, банковских услуг и т.п.);
- Разработка стандартов архитектуры, аудита и тестирования с учётом специфики исламской этики и права;
- Контроль обновлений и актуализация Кодекса по мере появления новых технологических и богословских вызовов;
- Ведение открытого реестра сертифицированных исламских ИИ-решений, поддержка прозрачности, обмен опытом между экспертами.
Этот орган должен быть независимым, мультидисциплинарным и международным — с обязательным участием богословов, инженеров, юристов, специалистов по защите данных и общественных деятелей. Создание такого Комитета обеспечит доверие со стороны общества, предотвратит появление «серых» сервисов и усилит репутацию исламских ИИ-проектов на глобальном рынке.
3.3.3.2. Программы обучения и повышение цифровой грамотности мусульман
Ключевым фактором успешного внедрения Кодекса является не только техническая реализация, но и массовое обучение мусульман правильному, ответственному и эффективному использованию ИИ. Необходимо:
- Организовать регулярные курсы и семинары по цифровой грамотности, базовым принципам шариата в сфере технологий, этике ИИ, защите данных, основам кибербезопасности;
- Ввести модули по исламской этике ИИ в программы исламских университетов, колледжей, воскресных школ, центров дополнительного образования;
- Запустить дистанционные онлайн-курсы для широкой аудитории — с акцентом на практические кейсы: как искать достоверные знания, как отличать халяль-контент, как защищать свою приватность, как использовать ИИ для повышения эффективности бизнеса, управления временем и т.д.;
- Открыть консультационные центры при мечетях, муфтиятских управлениях и религиозных образовательных организациях для разъяснения рисков и возможностей ИИ, а также для сопровождения мусульман при внедрении ИИ в их проекты.
Подобные образовательные инициативы минимизируют риски дезинформации, распространения суеверий и недобросовестного использования технологий, формируют здоровую культуру digital well-being[103], accountability и сознательного пользования ИИ — как ради мирского блага, так и для обретения довольства Всевышнего на Ахира.
3.3.4. Техническая интеграция и организация обратной связи
3.3.4.1. Механизмы контроля, мониторинга и обновления
Эффективное внедрение Кодекса невозможно без надёжных систем контроля:
- Внедрение «шариатских фильтров» на этапе проектирования ИИ-продуктов, модулей аудита религиозного и этического контента;
- Интеграция механизмов human-in-the-loop — участие религиозных экспертов в проверке религиозных ответов и кейсов, переданных на аутсорсинг либо реализованных через специальные программные триггеры;
- Создание платформы обратной связи для фиксации и анализа жалоб, инцидентов, ошибок, предложений пользователей — и оперативной корректировки системы на их основе;
- Ведение логирования и прозрачности алгоритмов (traceability[104], auditability), как внутренний стандарт исламского доверия и внешнего комплаенса;
- Международный обмен кейсами и best practices — через регулярные форумы, научные конференции, публикации отчётов о внедрении, проблемы и успешные находки.
3.3.4.2. Примеры успешной апробации и перспективы дальнейшего масштабирования
Кейс шариатского чат-бота (Telegram-платформа с Retrieval-Augmented Generation) доказал реализуемость концепции двойной проверки религиозного контента, прозрачности и включения экспертов на этапе валидации ответов. Система показала высокую точность, скорость реакции, а главное — заслужила доверие пользователей как внутри России, так и за её пределами, став образцом для новых исламских ИИ-проектов.
Успех пилотного внедрения подтверждает возможность масштабирования модели на более сложные сферы — исламское консультирование, цифровой муфтият, дистанционное обучение и сертификацию продуктов, социальное сопровождение и даже Islamic smart city services[105].
3.3.5. Роль международного сотрудничества, создание региональных хабов и учёт межкультурных различий
3.3.5.1. Обмен лучшими практиками и адаптация к местным условиям
Масштабирование Исламского Кодекса требует международного и межкультурного взаимодействия. Рекомендуется:
- Создавать рабочие группы и альянсы при поддержке ОИС, крупных исламских университетов, национальных регуляторов;
- Открывать региональные экспертные центры и хабы[106], способные разрабатывать локализованные версии Кодекса, адаптированные к национальному законодательству и культурным особенностям;
- Проводить регулярный сравнительный анализ внедрения Кодекса в различных странах и регионах с целью выявления универсальных решений и адаптивных стратегий.
Международное сотрудничество, обмен опытом, конференции, публикация совместных исследований, поддержка молодых специалистов и стартапов создадут критическую массу компетенций и инноваций, необходимых для устойчивого развития исламской цифровой экосистемы.
3.3.6. Заключительные рекомендации и стратегические перспективы
В свете вышеизложенного можно сформулировать следующие ключевые рекомендации для дальнейшего развития исламской модели регулирования ИИ:
- Институционализировать процесс сертификации и аудита ИИ через создание независимых комитетов с международным статусом и прозрачной процедурой признания исламских стандартов.
- Инвестировать в образовательные проекты по цифровой грамотности и исламской этике ИИ, вовлекать молодёжь в разработку исламских ИИ-продуктов.
- Стимулировать развитие исламских стартапов и исследовательских инициатив, предоставлять гранты и консультации, поддерживать центры инноваций в крупных исламских университетах.
- Формировать культуру цифрового суверенитета: продвигать концепцию «исламского ИИ», поддерживать собственные дата-центры, облачные сервисы, платформы для хранения и анализа релевантных данных.
- Обеспечивать прозрачность, подотчётность и непрерывный мониторинг — внедрять механизмы регулярного пересмотра и обновления Кодекса на основе новых технологических, правовых и богословских вызовов.
- Обеспечивать адаптивность к изменениям времени и места (с опорой на принцип «тагайюруль ахкам»): актуализировать стандарты с учётом развития ИИ, появления новых видов угроз (deepfake, генеративный ИИ и др.) и трансформации социальной среды.
- Содействовать формированию исламской теологии технологий как самостоятельной научной дисциплины на стыке фикха, акыды и технологического инжиниринга.
Таким образом, масштабирование и внедрение Исламского Кодекса применения ИИ — это не только задача технологического и правового порядка, но и цивилизационный проект, обеспечивающий интеграцию исламских ценностей в цифровое общество будущего. В долгосрочной перспективе это создаст условия для интеллектуального лидерства, социальной сплочённости и экономической самостоятельности уммы, сделает исламскую цивилизацию одним из драйверов ответственного развития технологий в мировом масштабе.
Третья глава настоящего исследования продемонстрировала, каким образом исламские этические принципы могут быть не только теоретически артикулированы, но и практически реализованы в сфере искусственного интеллекта. Исламский Кодекс применения ИИ был представлен как структурированный проектный документ, соединяющий богословские, правовые и технологические компоненты. Его структура включает положения, направленные на обеспечение соответствия технологий фундаментальным нормам шариата, матуридитской акыды и ахляка. Разделы Кодекса охватывают весь жизненный цикл ИИ — от проектирования и тестирования до внедрения и постоянного надзора — что позволяет ему служить основой для комплексного регулирования.
Апробация Кодекса на примере шариатского чат-бота показала жизнеспособность и практическую реализуемость сформулированных норм. Система, основанная на архитектуре Retrieval-Augmented Generation (RAG), прошла тестирование по критериям корректности религиозных ответов, соответствия шариату, прозрачности и участию экспертов (human-in-the-loop). Данные апробации свидетельствуют о высоком уровне религиозной достоверности и доверия со стороны пользователей, а также подтверждают возможность использования ИИ в религиозных целях при наличии адекватных фильтров и многоуровневой проверки. Таким образом, шариатский чат-бот стал эмпирическим доказательством применимости исламского подхода к ИИ на практике.
В заключительном разделе главы были рассмотрены пути масштабирования и интеграции Кодекса в различные отрасли — образование, исламские финансы, здравоохранение и государственное управление. Принцип «халяль by design» получил своё практическое воплощение в рекомендациях по технической и организационной интеграции, включая разработку шариатских фильтров, создание экспертных советов, обучение специалистов и построение обратной связи. Также подчёркнута необходимость международного сотрудничества и создания региональных центров исламской экспертизы, способных адаптировать Кодекс к различным юридическим и культурным контекстам.
Итак, третья глава завершает путь от теоретического замысла к практическому воплощению исламской модели этики ИИ. Она демонстрирует, что исламская правовая и этическая традиция обладает необходимыми ресурсами для регулирования новейших технологий и может быть успешно интегрирована в современную технологическую инфраструктуру без утраты своей нормативной силы. Эти выводы закладывают основу для дальнейшего институционального внедрения Кодекса, расширения его применения и развития исламской теологии технологий как нового направления научной и практической деятельности.
В современную эпоху стремительного технологического развития вопросы этики искусственного интеллекта (ИИ) выходят за рамки сугубо технических и правовых дискуссий, приобретая цивилизационное и мировоззренческое значение. С одной стороны, ИИ открывает широкие перспективы для повышения эффективности, качества жизни, доступности знаний и социальных услуг. С другой — его широкое внедрение порождает целый спектр новых вызовов: от угроз приватности и прозрачности алгоритмов до опасности духовной и культурной эрозии. В исламском обществе эти вызовы приобретают особую остроту в силу комплексной природы шариата, интегрирующего вероубеждение, право и нравственность. Настоящая работа была направлена на поиск гармоничного баланса между технологическим прогрессом и вечными ценностями Ислама, а также на формирование комплексной концепции исламского регулирования в сфере ИИ.
В первой главе был проведён системный анализ современных подходов к этике искусственного интеллекта, существующих в международной практике. Рассмотрены эволюция этики ИИ — от первых философских споров и научно-фантастических сценариев до формирования институциональных стандартов, таких как Рекомендация ЮНЕСКО по этике искусственного интеллекта, инициатива IEEE Ethically Aligned Design, европейское законодательство (AI Act) и другие глобальные документы. Выявлено, что эти стандарты во многом акцентируют человекоцентризм, предотвращение вреда, справедливость, прозрачность и подотчётность — принципы, близкие к исламскому видению. Однако отмечено, что большинство существующих секулярных кодексов этики ИИ строятся на гуманистических основаниях и не охватывают в полной мере религиозные, духовные и правовые требования исламской цивилизации. Анализ практических кейсов внедрения «ответственного ИИ» в различных сферах (медицина, финансы, образование, городской менеджмент) показал, что эффективная интеграция этических норм возможна только при условии их адаптации к локальным, в том числе религиозным, особенностям.
Во второй главе осуществлён теологический и правовой отбор исламских норм и принципов, релевантных для регулирования искусственного интеллекта. Впервые в отечественной научной литературе системно выделены три пласта нормативных ориентиров: матуридитская акида (богословские основания веры), ханафитский фикх (правовые механизмы регулирования) и ахляк (этика и добродетели суфийской традиции). Каждый пласт проанализирован на предмет его значимости для технологий ИИ: определены принципы единобожия и предостережения против технообожествления, свободы воли и личной ответственности, рационального познания, эпистемологической верификации знаний, справедливости и меры, повеления одобряемого и предотвращения предосудительного. Исследованы правовые максимы ханафитского фикха, такие как принцип намерения, базовый принцип дозволенности, устранения вреда, справедливости, ответственности, необходимости, облегчения при затруднении и коллективной обязанности. Принципы ахляка (терпение, благодарность, богобоязненность, искренность, смирение, справедливость, аманат и др.) предложены в качестве внутренних мотиваторов и нравственной основы для участников жизненного цикла ИИ. Дана сравнительная характеристика исламских и светских стандартов этики ИИ, выявлены как области совпадения, так и фундаментальные различия: исламская этика выстраивается на основании Божественного Откровения и высшей целью считает довольство Аллаха, а не только достижение общественного блага.
В третьей главе представлены проект, структура и практическая апробация Исламского Кодекса применения ИИ. Детально раскрыта концепция структуры Кодекса, интегрирующего нормы акыды, шариата и ахляка с требованиями современной инженерной практики. На примере шариатского чат-бота, реализованного в архитектуре Retrieval-Augmented Generation (RAG), показана возможность технической реализации исламских этических норм в реальной технологической системе. Проведена апробация по критериям религиозной корректности, прозрачности, экспертного контроля (human-in-the-loop), что позволило обеспечить достоверность и доверие пользователей к религиозному ИИ-сервису. На основании анализа практической реализации сделан вывод о принципиальной реализуемости исламского подхода к ИИ в современных условиях. Кроме того, обозначены пути масштабирования и интеграции Кодекса в различные сферы: образование, исламские финансы, медицину, государственное управление. Особое внимание уделено необходимости создания специализированных шариатских аудиторских институтов, фильтрации харам-контента, обучению специалистов и формированию центров исламской технологической экспертизы.
Подводя итог, можно констатировать, что в ходе данного исследования были достигнуты все поставленные задачи: выявлены и проанализированы международные и исламские нормы применения ИИ, проведён теологический и правовой анализ релевантных шариатских принципов, предложена и практически апробирована структура Исламского Кодекса применения ИИ. Таким образом, работа внесла вклад в формирование научных и нормативных оснований для развития исламской этики в цифровую эпоху, показав, что исламская традиция обладает всеми необходимыми ресурсами для адекватного ответа на вызовы технологической модернизации.
Практическая значимость результатов исследования заключается в разработке универсальной и адаптивной модели исламского регулирования ИИ, способной быть интегрированной как на уровне национальных программ, так и в рамках отдельных исламских организаций и коммерческих проектов. Впервые представлена апробированная схема «халяль by design» и организационно-технические меры по реализации шариатских стандартов в архитектуре ИИ-систем. Практический опыт апробации шариатского чат-бота подтвердил возможность выстраивания религиозно-корректных сервисов на базе современных технологий.
В заключение следует подчеркнуть, что разработка и внедрение исламского этического кодекса для ИИ — это не только вызов, но и возможность для мусульманского общества занять проактивную позицию в формировании новых стандартов технологического развития, объединяя лучшие достижения инженерной мысли с вечными духовными и моральными ориентирами Ислама. Такой подход обеспечивает гармоничное сосуществование инноваций и религиозной традиции, открывает пути для дальнейших научных исследований и институционализации исламской теологии технологий как самостоятельной дисциплины.
Перспективы дальнейших исследований видятся в более глубокой разработке отраслевых кодексов для отдельных сфер применения ИИ, развитии моделей сертификации и шариатского аудита ИИ-продуктов, формировании образовательных программ для специалистов на стыке исламских и технических наук, а также в изучении трансграничного сотрудничества между исламскими странами по вопросам шариатских норм и регулирования искусственного интеллекта.
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
- Матуриди А. М. аль Китаб-ат-таухид / Абу Мансур аль-Матуриди; [перевод с арабского: Адыгамов Р. К., кандидат исторических наук]. — Казань : Хузур, 2017. — 519 с.
- Матуриди А. М. аль Китаб-ат-таухид / Абу Мансур аль-Матуриди; [Электронный ресурс]. URL: https://azan.kz/durus/dars/kitab-at-tauhid-abu-mansur-al-maturidi-125 (дата обращения: 18.05.2025).
- Википедия, свободная энциклопедия, Три закона роботехники / Википедия. [Электронный ре-сурс]. URL: https://ru.wikipedia.org/?curid=189535&oldid=143407241 (дата обращения: 16.02.2025).
- Википедия, свободная энциклопедия, Кибернетика, или управление и связь в животном и машине / Википедия. [Электронный ресурс]. URL: https://ru.wikipedia.org/?curid=7626772&oldid=145166866 (дата обращения: 18.05.2025).
- Википедия, свободная энциклопедия, Китайская комната / Википедия. [Электронный ресурс]. URL: https://ru.wikipedia.org/?curid=141796&oldid=144502812 (дата обращения: 11.04.2025).
- Шагавиев Д.А. Основы исламского источниковедения: учебное пособие / Д.А. Шагавиев. — Российский исламский институт, 2017. — 128 с.
- Future of Life Institute. Asilomar AI Principles, 2017. [Электронный ресурс]. URL: https://futureoflife.org/ai-principles/ (Дата обращения: 10.02.2025).
- OECD. OECD Principles on AI, 2019. [Электронный ресурс]. URL: https://www.oecd.org/going-digital/ai/principles/ (Дата обращения: 10.02.2025)
- UNESCO. Recommendation on the Ethics of Artificial Intelligence, 2021. [Электронный ресурс]. URL: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence (Дата обращения: 10.02.2025).
- IEEE. Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, 2019. [Электронный ресурс]. URL: https://ieeexplore.ieee.org/document/8058187 (Дата обращения: 19.05.2025).
- High-Level Expert Group on AI. Ethics Guidelines for Trustworthy AI. – European Commission, 2019. [Электронный ресурс]. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (Дата обращения: 19.05.2025).
- Trumpwhitehouse. Artificial Intelligence for the American People, 2019. [Электронный ресурс]. URL: https://trumpwhitehouse.archives.gov/ai/ (Дата обращения: 19.05.2025).
- National Security Commission on Artificial Intelligence (NSCAI). Final Report. – Washington, 2021. [Электронный ресурс]. URL: https://reports.nscai.gov/final-report (Дата обращения: 19.05.2025).
- China AI Development Report. Beijing Academy of Artificial Intelligence, 2018. [Электронный ресурс]. URL: https://www.scribd.com/document/442369539/China-AI-development-report-2018 (Дата обращения: 19.05.2025)..
- UNESCO. Recommendation on the Ethics of Artificial Intelligence, 2021. [Электронный ресурс]. URL: https://unesdoc.unesco.org/ark:/48223/pf0000380455 (Дата обращения: 12.02.2025).
- European Commission. Proposal for a Regulation laying down harmonised rules on Artificial Intelligence (AI Act), 2021. [Электронный ресурс]. URL: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence (Дата обращения: 20.05.2025).
- OECD. OECD Principles on AI, 2019. [Электронный ресурс]. URL: https://www.oecd.org/going-digital/ai/principles/ (Дата обращения: 12.02.2025).
- G20. G20 AI Principles, 2019. [Электронный ресурс]. URL:
https://oecd.ai/en/wonk/documents/g20-ai-principles (Дата обращения: 12.02.2025).
- KSA government, KSA AI Ethics Principles? 2023. [Электронный ресурс]. URL: https://sdaia.gov.sa/en/SDAIA/about/Documents/ai-principles.pdf (Дата обращения: 20.05.2025).
- IBM. Watson Health: Oncology Overview, 2020. [Электронный ресурс]. URL: https://pmc.ncbi.nlm.nih.gov/articles/PMC6656482 (Дата обращения: 20.05.2025).
- Wethaq Business Services. UAE [Электронный ресурс]. URL: https://www.wethaquae.com/company-overview (Дата обращения: 20.05.2025).
- MeeM Academia, Quran Tutor AI. [Электронный ресурс]. URL: https://meemacademia.com/ai-quran-studies/?utm_source=chatgpt.com (Дата обращения: 20.05.2025).
- Ат-Тахави, Абу Джафар. Акыда ат-Тахавия. Пер. с араб. С примечаниями Ахмада Абу Яхьи аль-Ханафи, М.: Даруль-Фикр, 2020. – 64 с.
- Imam Al-Ghazali, Mustasfa min ilm al-usul, 1987 [Электронный ресурс]. URL: https://archive.org/details/GAZALIMustasfaMinIlmUsulI (Дата обращения: 20.05.2025).
- Энциклопедия хадисов. [Электронный ресурс]. URL: https://hadis.uk (Дата обращения: 20.05.2025).
- Имам Яхья ибн Шараф ан-Навави, САДЫ ПРАВЕДНЫХ [Электронный ресурс]. URL: https://azan.ru/upload/Сады%20праведных.pdf (Дата обращения: 20.05.2025).
- islamicweb.net, Website. [Электронный ресурс]. URL: https://www.islamweb.net (Дата обращения: 19.05.2025).
- Sunnah.com, Website. [Электронный ресурс]. URL: https://sunnah.com (Дата обращения: 19.05.2025).
[1] Википедия, свободная энциклопедия, Три закона роботехники / Википедия. [Электронный ресурс]. URL: https://ru.wikipedia.org/?curid=189535&oldid=143407241 (дата обращения: 16.02.2025)
[2] Википедия, свободная энциклопедия, Кибернетика, или управление и связь в животном и машине / Википедия. [Электронный ресурс]. URL: https://ru.wikipedia.org/?curid=7626772&oldid=145166866 (дата обращения: 18.05.2025).
[3] Википедия, свободная энциклопедия, Кибернетика, или управление и связь в животном и машине / Википедия. [Электронный ресурс]. URL: https://ru.wikipedia.org/?curid=7626772&oldid=145166866 (дата обращения: 18.05.2025).
[4] Википедия, свободная энциклопедия, Китайская комната / Википедия. [Электронный ресурс]. URL: https://ru.wikipedia.org/?curid=141796&oldid=144502812 (дата обращения: 11.04.2025).
[5] Future of Life Institute. Asilomar AI Principles, 2017. [Электронный ресурс]. URL: https://futureoflife.org/ai-principles/ (Дата обращения: 10.02.2025).
[6] OECD. OECD Principles on AI, 2019. [Электронный ресурс]. URL: https://www.oecd.org/going-digital/ai/principles/ (Дата обращения: 10.02.2025).
[7] UNESCO. Recommendation on the Ethics of Artificial Intelligence, 2021. [Электронный ресурс]. URL: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence (Дата обращения: 10.02.2025).
[8] IEEE. Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, 2019. [Электронный ресурс]. URL: https://ieeexplore.ieee.org/document/8058187 (Дата обращения: 19.05.2025).
[9] High-Level Expert Group on AI. Ethics Guidelines for Trustworthy AI. – European Commission, 2019. [Электронный ресурс]. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai и file:///G:/Users/Downloads/ai_hleg_ethics_guidelines_for_trustworthy_ai-en_87F84A41-A6E8-F38C-BFF661481B40077B_60419.pdf (Дата обращения: 19.05.2025).
[10] National Security Commission on Artificial Intelligence (NSCAI). Final Report. – Washington, 2021. [Электронный ресурс]. URL: https://reports.nscai.gov/final-report
[11] China AI Development Report. Beijing Academy of Artificial Intelligence, 2018. [Электронный ресурс]. URL: https://www.scribd.com/document/442369539/China-AI-development-report-2018.
[12] High-Level Expert Group on AI. Ethics Guidelines for Trustworthy AI. – European Commission, 2019. [Электронный ресурс]. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai и file:///G:/Users/Downloads/ai_hleg_ethics_guidelines_for_trustworthy_ai-en_87F84A41-A6E8-F38C-BFF661481B40077B_60419.pdf (Дата обращения: 19.05.2025).
[13] Campaign to Stop Killer Robots — это международная коалиция, выступающая за запрет полностью автономного оружия, не контролируемого человеком. С исламской точки зрения, такая инициатива поддерживает шариатские цели защиты жизни (ḥifẓ al-nafs) и предотвращения зульма (несправедливости).
[14] UNESCO. Recommendation on the Ethics of Artificial Intelligence, 2021. [Электронный ресурс]. URL: https://unesdoc.unesco.org/ark:/48223/pf0000380455 (Дата обращения: 12.02.2025).
[15] IEEE. Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, 2019. [Электронный ресурс]. URL: https://ieeexplore.ieee.org/document/8058187 (Дата обращения: 19.05.2025).
[16] Accountability-by-design — это принцип проектирования ИИ-систем с изначально встроенными механизмами подотчётности, позволяющими отслеживать и оценивать действия всех участников. В исламском праве он соответствует концепции мас’уля (مسؤولية) — предустановленной ответственности за любое действие, включая цифровые процессы.
[17] Privacy by Design — это подход к разработке систем, при котором защита личных данных закладывается с самого начала и на всех этапах жизненного цикла.
[18] High-Level Expert Group on AI. Ethics Guidelines for Trustworthy AI. – European Commission, 2019. [Электронный ресурс]. URL: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (Дата обращения: 19.05.2025).
[19] European Commission. Proposal for a Regulation laying down harmonised rules on Artificial Intelligence (AI Act). (2021) [Электронный ресурс]. URL: https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence
[20] Risk-based approach — это метод управления, при котором решения принимаются на основе оценки вероятности и серьёзности возможных рисков. В исламском праве он соотносится с принципами дар’ аль-мафāсид (предотвращение вреда) и сидд аз-зарāиʿ (закрытие путей к злу), обеспечивая осторожность при применении ИИ.
[21] OECD. OECD Principles on AI, 2019. [Электронный ресурс]. URL: https://www.oecd.org/going-digital/ai/principles/ (Дата обращения: 12.02.2025).
[22] G20. G20 AI Principles, 2019. [Электронный ресурс]. URL:
https://oecd.ai/en/wonk/documents/g20-ai-principles (Дата обращения: 12.02.2025).
[23] Trumpwhitehouse. Artificial Intelligence for the American People, 2019. [Электронный ресурс]. URL: https://trumpwhitehouse.archives.gov/ai/ (Дата обращения: 19.05.2025).
[24] China AI Development Report. Beijing Academy of Artificial Intelligence, 2018. [Электронный ресурс]. URL: https://www.scribd.com/document/442369539/China-AI-development-report-2018. (Дата обращения: 19.05.2025).
[25] UAE Government. UAE Artificial Intelligence Strategy 2031. 2021. [Электронный ресурс]. URL: ai.gov.ae/wp-content/uploads/2021/07/UAE-National-Strategy-for-Artificial-Intelligence-2031.pdf (Дата обращения: 20.05.2025).
[26] Калям Шариф. Перевод смыслов – Казань: «Издательский Дом «Хузур» — «Спокойствие», 2020. – С. 516.
[27] KSA government, KSA AI Ethics Principles? 2023. [Электронный ресурс]. URL: https://sdaia.gov.sa/en/SDAIA/about/Documents/ai-principles.pdf (Дата обращения: 20.05.2025).
[28] UAE Government. UAE Artificial Intelligence Strategy 2031. 2021. [Электронный ресурс]. URL: ai.gov.ae/wp-content/uploads/2021/07/UAE-National-Strategy-for-Artificial-Intelligence-2031.pdf (Дата обращения: 20.05.2025).
[29] IBM. Watson Health: Oncology Overview, 2020. [Электронный ресурс]. URL: https://pmc.ncbi.nlm.nih.gov/articles/PMC6656482 (Дата обращения: 20.05.2025).
[30] Wethaq Business Services. UAE [Электронный ресурс]. URL: https://www.wethaquae.com/company-overview (Дата обращения: 20.05.2025).
[31] https://meemacademia.com/ai-quran-studies
[32] https://www.neom.com/en-us
[33] Калям Шариф. Перевод смыслов – Казань: «Издательский Дом «Хузур» — «Спокойствие», 2020. – С. 515-516.
[34] Матуриди А. М. аль Китаб-ат-таухид / Абу Мансур аль-Матуриди; [Электронный ресурс]. URL: https://azan.kz/durus/dars/kitab-at-tauhid-abu-mansur-al-maturidi-125 (дата обращения: 18.05.2025).
[35] Human dignity — это неотъемлемое достоинство каждого человека, основанное на его статусе творения Всевышнего. В исламском контексте оно выражает божественное возвышение человека (تكريم الإنسان) и требует уважения к его свободе, разуму и нравственной ответственности, включая при разработке и применении ИИ.
[36] Чёрный ящик (black box) — это модель или система, внутренние процессы которой недоступны для наблюдения или объяснения, несмотря на известный ввод и вывод. В контексте ИИ термин указывает на отсутствие прозрачности алгоритмов, что затрудняет оценку обоснованности решений с точки зрения этики и шариата.
[37] Oversight — это процесс наблюдения, контроля и оценки деятельности или системы с целью обеспечения соответствия установленным нормам. В сфере ИИ oversight предполагает наличие шариатского и этического надзора за проектированием, внедрением и эксплуатацией технологий.
[38] Loop — это повторяющаяся последовательность действий или процессов, которая выполняется до наступления определённого условия. В контексте ИИ loop может обозначать циклы обучения, обратной связи или итераций, что требует контроля во избежание ошибок и этических отклонений.
[39] Human-in-the-loop — это подход в разработке ИИ-систем, при котором человек участвует в процессе принятия решений, контролируя или подтверждая действия машины. Такой подход обеспечивает соблюдение этических и шариатских норм, позволяя предотвратить автоматизированные ошибки и несправедливые последствия.
[40] Accountability — это обязанность нести ответственность за свои действия, решения и их последствия. В контексте ИИ это означает, что разработчики, операторы и пользователи технологий должны быть идентифицируемыми и подотчётными с точки зрения как этики, так и шариатских предписаний.
[41] Human oversight — это непрерывный человеческий надзор за функционированием ИИ-систем с правом вмешательства, корректировки или остановки. Он необходим для обеспечения соответствия технологических решений моральным, юридическим и шариатским нормам.
[42] Калям Шариф. Перевод смыслов – Казань: «Издательский Дом «Хузур» — «Спокойствие», 2020. – С.515.
[43] Калям Шариф. Перевод смыслов – Казань: «Издательский Дом «Хузур» — «Спокойствие», 2020. – С.48.
[44] Fairness — это принцип справедливости, означающий равное и беспристрастное отношение ко всем субъектам. В применении к ИИ fairness требует недискриминационного функционирования алгоритмов и учёта прав всех затрагиваемых сторон в соответствии с этическими и шариатскими стандартами.
[45] Do good — это этический принцип, побуждающий к активному стремлению приносить благо и предотвращать вред. В исламском контексте он отражает обязанность использовать ИИ во имя пользы обществу, укрепления справедливости и содействия общему благу (مصلحة).
[46] Non-maleficence — это принцип недопустимости причинения вреда, обязывающий воздерживаться от действий, способных нанести ущерб. В исламской этике он соотносится с правилом «لا ضَرَرَ وَلا ضِرَارَ» («нет вреда и взаимного вреда») и применяется к ИИ как требование предотвращать любые негативные последствия для человека и общества.
[47] Transparency — это открытость и доступность информации о работе ИИ-систем, включая алгоритмы, данные и логику принятия решений. С точки зрения исламской этики, прозрачность необходима для доверия, справедливости и предотвращения злоупотреблений, особенно при воздействии технологий на общество.
[48] Explainability — это способность ИИ-системы предоставлять понятные и обоснованные объяснения своих решений и действий. В исламском контексте explainability важна для обеспечения справедливости (ʿадль) и подотчётности, особенно при вынесении решений, затрагивающих права и достоинство человека.
[49] Энциклопедия хадисов. [Электронный ресурс]. URL: https://hadis.uk/sady-pravednyx-imama-an-navavi-xadis-55/29029 (Дата обращения: 20.05.2025).
[50] Stress-tests — это испытания ИИ-систем в экстремальных или нестандартных условиях для оценки их устойчивости, надёжности и безопасности. С точки зрения шариата, такие проверки обязательны для предотвращения потенциального вреда (ضرر) и обеспечения допустимости использования технологий в ответственных сферах.
[51] Precautionary principle — это принцип предосторожности, согласно которому при наличии риска причинения серьёзного или необратимого вреда следует воздерживаться от внедрения технологии, даже при отсутствии полной научной определённости. В исламском праве он соответствует принципу سدّ الذرائع (закрытие путей к злу) и применяется к ИИ для предотвращения потенциальных нарушений шариатских норм.
[52] Fail-safe — это технический принцип, при котором система спроектирована так, чтобы в случае сбоя переходить в безопасное состояние, минимизируя риск вреда. В исламском контексте fail-safe поддерживает обязанность сохранения жизни, имущества и общественного блага, обеспечивая надёжность ИИ в соответствии с maqāṣid ash-sharīʿa.
[53] Sunnah.com, Website. [Электронный ресурс]. URL: https://sunnah.com/tirmidhi:2517 (Дата обращения: 19.05.2025).
[54] Due diligence — это комплексная и заблаговременная проверка всех аспектов разработки и применения технологии для выявления рисков и обеспечения соответствия нормативным требованиям. В исламской перспективе это соответствует требованию амāна (надёжности) и иḥтиyāṭ (осмотрительности), особенно при использовании ИИ в сферах, затрагивающих права и интересы людей.
[55] Энциклопедия хадисов. [Электронный ресурс]. URL: https://hadis.uk/saxix-al-buxari-xadis-1/31433 (Дата обращения: 20.05.2025).
[56] Evidence-based — основанный на проверенных данных и достоверных источниках. В ИИ означает принятие решений на базе эмпирических доказательств, что соответствует исламскому требованию ясности (баййина) и устранения сомнений.
[57] Non-maleficence — обязательство не причинять вреда. В исламском праве соответствует принципу «لا ضرر ولا ضرار» (нет вреда и взаимного вреда).
[58] Ригоризм — склонность к максимально строгому и буквальному соблюдению норм и запретов, без учёта смягчающих обстоятельств. В исламском праве излишний ригоризм порицается, если он ведёт к затруднению.
[59] Mens rea — юридический термин, обозначающий «виновное намерение» или сознательное осознание противоправности деяния. В исламском праве аналогичным понятием является ният (نية), и наличие намерения — ключевое условие для наступления ответственности.
[60] Just culture — организационная среда, в которой поощряется открытое признание ошибок без страха необоснательного наказания, при одновременном обеспечении справедливости и ответственности. В исламской этике это соответствует принципам ʿадль (справедливость) и муха̄саба (взаимный нравственный отчёт).
[61] Калям Шариф. Перевод смыслов – Казань: «Издательский Дом «Хузур» — «Спокойствие», 2020. – С. 276.
[62] Fairness — справедливое и беспристрастное отношение ко всем участникам. В Исламе это соответствует принципу ʿадль (العَدلُ) и требует недопущения зульма (угнетения) в решениях ИИ.
[63] Deepfake — это синтетический медиа-контент (видео, аудио, изображение), созданный с помощью ИИ для имитации реальных лиц или голосов. В исламской этике deepfake может рассматриваться как форма обмана (تَغْرِير) и запрещается, если используется во вред, лжи или порочащих целях.
[64] Equity — это принцип справедливости с учётом индивидуальных различий и потребностей, направленный на достижение фактического равенства возможностей. В исламском контексте соответствует понятию ʿadl (عدل) с акцентом на устранение системных несправедливостей и поддержку обездоленных.
[65] Continuous monitoring — это постоянное наблюдение за работой ИИ-систем для своевременного выявления сбоев, рисков и несоответствий. В исламской этике это отражает принцип надзора, необходимый для обеспечения ответственности и предотвращения вреда.
[66] Sunnah.com, Website. [Электронный ресурс]. URL: https://sunnah.com/bukhari%3A2051 (Дата обращения: 19.05.2025).
[67] Better safe than sorry — принцип, призывающий к осторожности и предотвращению рисков, даже при неопределённости. В исламском праве соответствует правилуالاحتياط (ихтият) — предпочтение более безопасного варианта при наличии сомнений.
[68] Agile-государство — это модель управления, основанная на гибкости, быстрой адаптации, итеративных решениях и постоянной обратной связи с обществом. В исламском контексте такая модель может сочетаться с шариатским принципом маслаха (مصلحة) — приоритета общественного блага и оперативного реагирования на изменяющиеся условия.
[69] Do no harm — этический принцип, обязывающий избегать любых действий, способных причинить вред. В исламе он соответствует хадису: «لا ضَرَرَ وَلا ضِرَارَ» — «не вреди и не причиняй взаимного вреда».
[70] Digital well-being — это состояние сбалансированного, безопасного и осознанного взаимодействия человека с цифровыми технологиями. В исламском контексте соответствует сохранению разума и души от вредного влияния, зависимости и потери контроля.
[71] Privacy — это право человека на неприкосновенность личной жизни, данных и общения. В Исламе охрана личной сферы — обязательна (حرمة), и вторжение без разрешения строго запрещено, что требует защиты данных в цифровой среде.
[72] Mental health — это состояние психического и эмоционального благополучия, позволяющее человеку функционировать и принимать осознанные решения. В исламском праве и этике охрана разума (ḥifẓ al-ʿaql) является одной из высших целей шариата (макасид аш-шари‘а).
[73] Accountability — обязанность отвечать за свои действия и их последствия. В Исламе это соответствует понятию мас’уля (مَسْؤُولِيَّة), охватывающему как мирскую, так и перед Аллахом ответственность за поступки.
[74] Парсить — означает извлекать структурированную информацию из неструктурированных данных (текста, HTML, логов и т.п.). В программировании парсинг используется для автоматической обработки и анализа данных.
[75] Bias — это систематическое отклонение в данных или алгоритмах, приводящее к несправедливым, предвзятым результатам. В исламском контексте bias нарушает принцип справедливости (ʿадль) и должен устраняться для обеспечения этичного применения ИИ.
[76] Data governance — это система политик, процедур и стандартов для управления данными: их качеством, безопасностью, доступом и ответственностью. В исламском контексте она поддерживает принципы надёжности, защиты чести и ответственности в обращении с информацией.
[77] Калям Шариф. Перевод смыслов – Казань: «Издательский Дом «Хузур» — «Спокойствие», 2020. – С. 105
[78] AI-матчинг — это использование алгоритмов искусственного интеллекта для автоматического сопоставления и подбора объектов (людей, услуг, товаров и т.п.) на основе заданных критериев. В исламском контексте он допустим при соблюдении справедливости (ʿадль), прозрачности и недопущении дискриминации.
[79] AI transparency & explainability — это принципы открытости алгоритмов и способности ИИ объяснять свои решения понятным образом. В исламской этике они необходимы для обеспечения справедливости (ʿадль), ответственности (мас’уля) и исключения зульма (несправедливости).
[80] Meaningful Human Control — это концепция, согласно которой человек сохраняет решающую роль в управлении ИИ-системами, особенно в критически важных решениях.
[81] Algorithms should not play God — этико-правовой принцип, подчёркивающий недопустимость предоставления алгоритмам власти, сопоставимой с абсолютной или божественной. В исламском контексте это выражает строгий запрет на ташбих (уподобление) и ширк (присвоение божественных функций), утверждая, что только Аллах обладает абсолютным знанием и властью.
[82] Калям Шариф. Перевод смыслов – Казань: «Издательский Дом «Хузур» — «Спокойствие», 2020. – С. 41
[83] UI/UX (User Interface / User Experience) — это области проектирования пользовательского интерфейса (UI) и пользовательского опыта (UX), направленные на удобство, доступность и эффективность взаимодействия с цифровыми продуктами.
[84] One-size-fits-all — подход, при котором одно решение или система применяется ко всем без учёта индивидуальных различий. В исламской этике такой подход может быть проблематичным, поскольку нарушает принцип ʿадль (справедливость), требующий учёта контекста, обстоятельств и нужд каждого человека.
[85] Algorithmic bias — это предвзятость в работе алгоритмов, возникающая из-за искажённых данных, ошибочной логики или некорректного обучения, что приводит к несправедливым результатам. В исламском праве это нарушает принцип ʿадль (عدل) — обязательной справедливости — и требует устранения таких искажений для допустимости использования.
[86] Fact-checking — это процесс проверки достоверности информации перед её распространением или использованием. В исламской традиции он соотносится с аятом: فَتَبَيَّنُوا («уточняйте»; сура 49:6), подчеркивая обязанность удостоверяться в правдивости сведений во избежание зульма (несправедливости).
[87] Accuracy of religious content — это точность и соответствие религиозной информации достоверным источникам: Корана, Сунны и мнениям признанных учёных. В Исламе это критически важно, так как искажение религиозного содержания считается тяжким грехом и нарушает доверие к знанию (ʿилм).
[88] Калям Шариф. Перевод смыслов – Казань: «Издательский Дом «Хузур» — «Спокойствие», 2020. – С.105
[89] Комплаенс — это система внутреннего контроля, обеспечивающая соответствие деятельности организации определённым нормам. Шариатский комплаенс по технологиям — это специализированная функция, следящая за тем, чтобы использование ИИ соответствовало исламским правовым и этическим требованиям.
[90] Auditability — это способность ИИ-системы быть проверенной и отслеженной внешними или внутренними аудиторами, включая фиксацию решений, источников данных и логики работы.
[91] Сертификация ИИ — это формальная процедура оценки соответствия ИИ-технологии установленным стандартам, включая шариатские, этические и технические нормы, с последующим выдачей допуска или одобрения.
[92] Интерфейс — это точка взаимодействия между человеком и цифровой системой, обеспечивающая ввод, вывод и управление. В контексте ИИ он должен быть интуитивным, этичным и учитывать нормы шариата, особенно при отображении чувствительного или религиозного контента.
[93] Bias — это систематическое отклонение в данных или алгоритмах, приводящее к несправедливым, предвзятым результатам. В исламском контексте bias нарушает принцип справедливости (ʿадль) и должен устраняться для обеспечения этичного применения ИИ.
[94] Баг — это ошибка или сбой в программе или системе, вызывающий её некорректную работу. В контексте ИИ баги могут привести к нарушению этических и шариатских норм, поэтому их своевременное выявление и устранение — обязанность, вытекающая из принципа амана (надёжности).
[95] QA (Quality Assurance) — это системный процесс обеспечения качества, включающий планирование, контроль, тестирование и улучшение всех этапов разработки и эксплуатации ИИ.
[96] 152-ФЗ — это Федеральный закон Российской Федерации «О персональных данных», который регулирует обработку, хранение и защиту персональных данных граждан. В контексте ИИ закон требует, чтобы разработчики и операторы ИИ-систем соблюдали строгие правила безопасности данных, обеспечивали конфиденциальность и защищенность персональной информации, а также уважали права субъектов данных на доступ, исправление и удаление своих данных.
[97] IEEE. Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, 2019. [Электронный ресурс]. URL: https://ieeexplore.ieee.org (Дата обращения: 19.05.2025).
[98] aiogram — это библиотека для Python, предназначенная для разработки ботов в Telegram с использованием асинхронного подхода (asyncio), обеспечивая высокую производительность и поддержку последних возможностей Telegram API.
[99] Retrieval-Augmented Generation (RAG) — это метод, в котором модели ИИ используют внешние базы данных или источники информации для улучшения генерации текста, комбинируя поиск релевантных данных и их интеграцию в процесс создания ответа.
[100] FAISS (Facebook AI Similarity Search) — это библиотека для эффективного поиска по векторным базам данных, оптимизированная для обработки больших объемов данных. В контексте ИИ она используется для быстрого поиска схожих элементов в больших наборах данных, например, в задачах по извлечению информации или машинному обучению.
[101] Human-in-the-loop — это подход в разработке ИИ, при котором человек активно участвует в процессе обучения или принятия решений системы, например, для улучшения качества моделей, проверки результатов или исправления ошибок.
[102] Decision Support Systems (DSS) — это информационные системы, предназначенные для помощи человеку в принятии обоснованных решений на основе анализа данных, моделей и алгоритмов. В исламском контексте DSS допустимы при условии, что они поддерживают справедливость (ʿадль), не нарушают шариат и не подменяют собой волевое и ответственное решение человека.
[103] Digital well-being — это состояние гармоничного, безопасного и осознанного взаимодействия человека с цифровыми технологиями, минимизирующего стресс, зависимость и перегрузку. В исламском контексте оно связано с сохранением разума (ḥifẓ al-ʿaql) и нравственного равновесия, что является частью целей шариата.
[104] Traceability — это способность отслеживать происхождение, изменения и действия в системе, включая источники данных и принятие решений. В исламском праве это связано с принципом муха̄саба (محاسبة — отчётность), обеспечивая прозрачность, доверие и подотчётность в применении ИИ.
[105] Islamic smart city services — это цифровые и автоматизированные городские решения, разработанные с учётом норм шариата, нравственных ценностей и потребностей мусульманского общества. Они включают халяльные финтех-услуги, шариат-совместимые алгоритмы безопасности, этичные ИИ-интерфейсы, цифровые платформы для ибадата и социального благополучия, поддерживая макасид аш-шариʿа (высшие цели шариата) в городской среде.
[106] Хаб — это центр или платформа для совместной работы специалистов из разных областей, где они могут обмениваться опытом, сотрудничать и решать общие задачи. В данном контексте «хаб» обозначает организационное пространство, которое способствует интеграции знаний и навыков в области ислама, технологий и права для адаптации и разработки Кодекса по применению ИИ.