الميثاق الإسلامي لاستخدام الذكاء الاصطناعي
إن الله تعالى هو الخالق الواحد والمهيمن على جميع العوالم، وله وحده الحمد والمجد. اللهم صلِّ وسلم على محمد وآله وصحبه أجمعين.
لقد وُهِب الإنسان القدرة على المعرفة وحرية الإرادة ليعبد ربه عن وعي، ويؤدي أوامره، ويجتنب المحرمات. فجميع أفعال الإنسان، بما في ذلك الإنجازات العلمية والتقنية، تُقَيَّم من منظور الالتزام بشرع الله تعالى.
وقد خُصَّ الإنسان في الإسلام بمنزلة الخلافة في الأرض؛ فقد كُلِّف بإعمارها، ونشر الخير، ودفع الشر. ويُعتبر التقدم التكنولوجي، بما في ذلك تطوير الذكاء الاصطناعي، جزءاً من هذه النعمة الإلهية للمعرفة (العلم). غير أن المسؤولية الملقاة على عاتق الإنسان تقتضي أن يستثمر الإمكانات الجديدة بما يتوافق مع الشريعة ومبادئ الأخلاق الإسلامية، مع الحفاظ على الدين، والنفس، والعقل، والمال، والعرض.
ويهدف هذا الميثاق إلى بيان كيفية تطبيق هذه المبادئ الإسلامية العليا على مجال الذكاء الاصطناعي، ويُوضّح السبل التي يمكن من خلالها للمطورين، والمؤسسات الدينية، وجميع المعنيين، الاستفادة من الذكاء الاصطناعي لخدمة المجتمع دون تجاوز حدود الشريعة أو انتهاك القيم الأخلاقية.
ويتمثل المبدأ الأساسي لهذا الميثاق في أولوية الأحكام الدينية على الابتكارات التكنولوجية؛ إذ تُقَيَّم جميع الإنجازات العلمية والتقنية فقط من خلال مدى توافقها مع أحكام الإسلام. ولا بد أن يكون التقدم التقني خاضعاً للقيم الإسلامية وليس العكس. وفي الحالات التي تحمل فيها التقنيات مخاطر محتملة على الدين، أو النفس، أو العقل، أو المال، أو العرض، يجب تقييد استخدامها أو تعليقها حتى زوال تلك المخاطر.
1. الأحكام العامة
1.1. هدف الميثاق ومهامه
1.1.1. هدف الميثاق
هدف هذا الميثاق هو وضع إطارٍ معياري لاستخدام تقنيات الذكاء الاصطناعي في السياق الإسلامي.
1.1.2. المهام الأساسية:
- الوقاية من المخاطر: تقليل المخاطر الأخلاقية والاجتماعية والدينية المحتملة عند استخدام الذكاء الاصطناعي، مع إلزامية تقييم كل ابتكار جديد وفقاً لمعايير الشريعة.
- توضيح المسؤولية: تحديد الأدوار والواجبات بوضوح لجميع المشاركين في دورة حياة أنظمة الذكاء الاصطناعي.
- وضع المبادئ: صياغة قواعد السلوك التي تُخضع التقدم التكنولوجي للقيم الإسلامية والأحكام الدينية.
ويقصد بدورة الحياة المراحل التي تشمل البحث، والتصميم، والتطوير، والاختبار، والتطبيق، والتشغيل، والتحسين المستمر لتقنيات الذكاء الاصطناعي.
1.2. الأساس ومجال التطبيق
1.2.1. الأساس الشرعي:
يرتكز هذا الميثاق على الشريعة (القرآن الكريم، السنة النبوية، الإجماع، القياس)، وأصول العقيدة (العقيدة)، وقيم الأخلاق الإسلامية (الأخلاق)، مع الاستفادة من تجارب المواثيق الأخلاقية الوضعية المعاصرة للذكاء الاصطناعي والتشريعات الرقمية ذات الصلة.
1.2.2. الغرض من الميثاق:
هذا الميثاق موجّه إلى المطورين، والمؤسسات الدينية، والهيئات التعليمية الإسلامية، وجميع من يشاركون في تصميم وتطبيق واستخدام الذكاء الاصطناعي في المجتمعات التي تلتزم بمبادئ الإسلام.
1.2.3. التطبيقات المدنية:
تشمل توصيات الميثاق مجالات الاستخدام غير العسكري لتقنيات الذكاء الاصطناعي، بما في ذلك (دون حصر):
- روبوتات الدردشة، أنظمة التوصية، ومنصات توليد المحتوى النصي؛
- خدمات الصيرفة الإسلامية؛
- منصات التعليم المدمجة مع توليد الصور والمواد السمعية والبصرية؛
- حلول الطب عن بعد؛
- أنظمة تحليل وتوليد وإصدار شهادات المنتجات الحلال؛
- أنظمة الذكاء الاصطناعي المتعددة الوسائط، التي تنتج نصوصاً، ورسومات، ومواد سمعية، ومرئية، وأكواد برمجية وبيانات تحليلية لتطبيقات متنوعة.
كما يمكن تطبيق الميثاق على المشاريع البحثية والأكاديمية، حتى وإن لم تكن نتائجها موجهة مباشرة للاستخدام العام. إذ إن مراعاة الضوابط الشرعية والأخلاقية في مراحل جمع البيانات وتدريب النماذج يقي من المشكلات المحتملة عند التطبيق العملي.
1.3. التعاريف (المعجم)
1.3.1. “نظام الذكاء الاصطناعي“:
كل تقنية تستخدم التعلم الآلي، والشبكات العصبية، وتحليل البيانات الضخمة، وغيرها من الأساليب، وتشمل الأنظمة القادرة على إنتاج محتوى متعدد الوسائط: نصوص، صور رسومية (رسوم توضيحية، نماذج ثلاثية الأبعاد، تصاميم واجهات الاستخدام)، مواد صوتية (موسيقى، تعليق صوتي، بودكاست، أصوات)، مواد مرئية (رسوم متحركة، تحرير فيديو، تزييف عميق)، أكواد برمجية وبيانات تحليلية.
1.3.2. “فاعلو الذكاء الاصطناعي“:
مصطلح يشمل جميع المشاركين في دورة حياة الذكاء الاصطناعي:
- المطورون (المهندسون، المبرمجون وغيرهم)
- المدمجون (الجهات أو الأفراد الذين يدمجون الذكاء الاصطناعي في العمليات القائمة)
- المستخدمون (الأفراد، الشركات، المؤسسات التي تستخدم الذكاء الاصطناعي مباشرة)
- الخبراء الشرعيون (المفتون، الهيئات الشرعية، وسائر المختصين المخوّلين بتقييم توافق الأنظمة مع الأحكام الإسلامية)
1.3.3. “السياق الإسلامي“:
هو منظومة القواعد والقيم والمبادئ المستندة إلى الشريعة، والأخلاق، والعقيدة، والتي تحدد الإطار المسموح لتطوير وتطبيق تقنيات الذكاء الاصطناعي في المجتمع الإسلامي.
1.3.4. “مقاصد الشريعة“:
الأهداف العليا للشريعة التي تشمل حفظ الدين، والنفس، والعقل، والمال، والعرض.
1.3.5. “الذكاء الاصطناعي الإسلامي“:
هو الذكاء الاصطناعي الذي يتم تطويره وتشغيله وفقاً لأحكام ومبادئ الشريعة الإسلامية، ويخلو من أي وظائف محرّمة، ويسهم في الارتقاء الروحي للمستخدم. ويرتكز على الصدق والعدل وتقوية الإيمان وتعظيم النفع للمجتمع، دون أن يُلغي حرية الإرادة الإنسانية. ويُقر بأن المسؤولية الأخلاقية تقع على الإنسان، لا على الخوارزميات.
1.4. مبدأ الطوعية والاعتراف
1.4.1. الطابع الطوعي:
يعتمد فاعلو الذكاء الاصطناعي هذا الميثاق طوعاً، تعبيراً عن التزامهم بمراعاة الأحكام الإسلامية والمعايير المتعارف عليها للاستخدام المسؤول للتكنولوجيا.
1.4.2. المسؤولية:
لا يجوز للذكاء الاصطناعي أن يتحمل المسؤولية الأخلاقية أو القانونية عن القرارات التي يجب أن تظل بيد الإنسان.
ويعتمد هذا على مبدأ أن الإنسان المكلّف وحده ذو عقل وإرادة حرة، فهو وحده مسؤول أمام الله تعالى.
1.4.3. الاعتداد المؤسسي:
يجوز للهيئات الدينية والرسمية أخذ الالتزام بالميثاق في الاعتبار عند تقييم موثوقية ومشروعية المنتجات والخدمات التقنية.
2. المبادئ الإسلامية والقيم الأساسية
2.1. منظومة الأحكام الواجبة على أساس العقيدة الماتريدية
2.1.1. التوحيد والتحذير من تأليه التكنولوجيا
ينبغي أن يُبنى تطوير وتشغيل الذكاء الاصطناعي على الالتزام التام بمبدأ التوحيد. ولا يجوز النظر إلى الذكاء الاصطناعي كقوة مستقلة أو نسب صفات الألوهية إليه أو جعل التكنولوجيا بديلاً عن القيم الدينية.
2.1.2. القضاء والقدر دون جبرية
مع الإقرار بالقضاء والقدر، تبقى مسؤولية الإنسان عن خياراته وأفعاله عند استخدام الذكاء الاصطناعي. ويُمنع تبرير الأخطاء أو التجاوزات بدعوى حتمية التقنية أو استقلاليتها.
2.1.3. حرية الإرادة والمسؤولية الشخصية
يُمنح كل إنسان حرية الإرادة ويُحمَّل المسؤولية الكاملة عن قراراته في استخدام الذكاء الاصطناعي. ولا يجوز نقل الخطأ أو القرار النهائي إلى الأنظمة المؤتمتة.
2.1.4. دور العقل بجانب الوحي
تُبنى القرارات في مجال الذكاء الاصطناعي على الجمع بين التحليل العقلي والأحكام الدينية. ولا يجوز لأي ابتكار تقني أن يتعارض مع أصول العقيدة.
2.1.5. طبيعة المعرفة والمعايير المعرفية
يحظر تدريب الذكاء الاصطناعي على مواد تحتوي على محتوى محرّم أو مضلّل (مثل الافتراء أو الدعاية للشرك أو الكفر).
2.1.6. العدل ومبدأ التوازن
يجب تطبيق الذكاء الاصطناعي دون الإخلال بالعدالة أو انتهاك الحقوق. ولا يجوز فرض متطلبات تقنية مفرطة تتجاوز قدرات الإنسان أو المجتمع.
2.1.7. مبدأ المعروف والمنكر
جميع العمليات المرتبطة بالذكاء الاصطناعي يجب أن تهدف إلى نشر الخير ودفع الشر. ويُسمح باستخدام الذكاء الاصطناعي فقط للأغراض المشروعة والمفيدة للمجتمع.
2.1.8. النقدية والتحقق من المصادر
تخضع جميع المعلومات المستخدمة في الذكاء الاصطناعي للتحقق الإلزامي. ويجب أن تتضمن الخوارزميات آليات تصفية البيانات غير الموثوقة أو غير الدقيقة.
2.1.9. الحكمة والاحتياط
ينبغي أن يُصاحب إدخال الذكاء الاصطناعي تقييم دقيق للمخاطر والآثار بعيدة المدى. ويُحظر التسرع في التطبيق إذا كان ذلك قد يضر بالقيم الدينية أو المجتمعية.
2.1.10. التوكل على الله
يجب أن يقترن استخدام الذكاء الاصطناعي باستشعار التبعية لمشيئة الله تعالى. ولا يجوز الاعتماد على التقنية كحل مطلق أو بديل عن التدبير الإلهي.
2.1.11. وجوب تحصيل المعرفة بالعقل
يجب على المسلم السعي للمعرفة والتحليل العقلي للبيانات، بما في ذلك أثناء التعامل مع الذكاء الاصطناعي. ويجب أن يسهم استخدام الذكاء الاصطناعي في تطوير الكفاءات، لا في إلغاء البحث الشخصي عن الحقيقة أو التفكير النقدي.
2.2. منظومة الأحكام الواجبة على أساس الفقه الحنفي
أولاً: المبادئ والقواعد العامة
2.2.1. مبدأ النية
يجب أن يكون كل عمل في مجال الذكاء الاصطناعي بنيّة خالصة وواعية ومتوافقة مع مقاصد الشريعة. وتُقاس المشروعية بالدافع والغاية الحقيقية للمطور أو المشغل أو المستخدم. ويفقد العمل المشروعية والأجر عند فقدان الإخلاص.
2.2.2. مبدأ الإباحة الأصلية
الأصل في التقنيات الحل، ما لم يرد دليل شرعي صريح على التحريم. وعبء إثبات التحريم يقع على من يدعي المنع. وتُفسَّر الشبهات لصالح الإباحة.
2.2.3. مبدأ اليقين
يجب أن تُبنى كل القرارات والعمليات المتعلقة بالذكاء الاصطناعي على معلومات موثوقة ومثبتة. ولا يجوز إلغاء الإباحة الثابتة لمجرد الشك، إلا إذا ثبتت شبهة خطيرة بدليل قاطع. ولا يُعاد النظر في الأحكام إلا بناءً على ظهور بيانات موثوقة.
2.2.4. مبدأ إزالة الضرر
يُحظر إنشاء أو تشغيل أو استخدام أنظمة الذكاء الاصطناعي التي تلحق ضرراً بالإنسان أو المال أو الدين أو المجتمع. ويجب إزالة أي ضرر يُكتشف فوراً، وتقع مسؤولية منعه على جميع المشاركين في دورة حياة النظام.
2.2.5. مبدأ التيسير عند العسر
في حال وجود صعوبات موضوعية، يجوز تطبيق إجراءات ميسَّرة بشرط عدم مخالفة الحظر الشرعي. والغاية تقليل العبء غير المبرر على المطورين والمستخدمين، في حدود المباح فقط.
2.2.6. مبدأ الضرورة
في حالة الضرورة القصوى، يجوز تجاوز بعض المحظورات مؤقتاً عند عدم وجود بديل، في حدود إزالة الخطر فقط. وتزول الرخصة بزوال الضرورة.
2.2.7. مبدأ العفو عن الخطأ والإكراه
تخفف أو ترفع المسؤولية عن الأخطاء غير المقصودة أو النسيان أو التصرف تحت الإكراه. ويتطلب إثبات الجرم تحقق القصد. ويجب أن تراعي الأنظمة المؤتمتة هذه الحالات عند تقييم سلوك الإنسان.
2.2.8. مبدأ العدل
يجب تحقيق العدالة في جميع مراحل دورة حياة الذكاء الاصطناعي: التصميم، التطبيق، التشغيل. ويُحظر كل أشكال التمييز أو الانحياز في الخوارزميات أو النتائج. وتُجرى مراجعة دورية منتظمة لمعايير العدالة.
2.2.9. مبدأ المسؤولية
يتحمل المطورون والمالكون والمشغلون المسؤولية الكاملة عن جميع نتائج عمل الأنظمة، بما في ذلك الضرر المحتمل. وتشمل المسؤولية الجوانب الفنية والأخلاقية، ويجب اتخاذ تدابير تعويض الضرر مسبقاً.
2.2.10. مبدأ توافق الوسيلة مع الغاية
يجب تقييم الوسائل بحسب نتائجها النهائية. فكل ما يؤدي إلى محرم يصبح محرماً، ولو كان أصله مباحاً. ويجب توافق الأفعال مع النوايا وعدم تعارضها مع مقاصد الشريعة.
2.2.11. مبدأ سد الذرائع
يُحظر إنشاء أو ترويج تقنيات يحتمل بقوة أن تؤدي إلى محرمات. وكل نظام يسهّل انتهاك المعايير الأخلاقية أو الشرعية يُلغى أو يُزال. وتقع مسؤولية الوقاية من العواقب السلبية على جميع الأطراف.
2.2.12. مبدأ تغليب المصلحة على المفسدة
يُسمح باستخدام الذكاء الاصطناعي حيث ترجحت المصلحة العامة أو الخاصة على المفسدة. ويُجرى تقييم المصلحة والمفسدة في جميع مراحل التطبيق، وتُقدَّم مصلحة المجتمع عند الشك.
2.2.13. مبدأ الاستحسان (اختيار الأفضل)
عند تعارض الأحكام أو المسائل غير المنظّمة، يُقدَّم الحل الأكثر عدلاً وإنسانية، مع مراعاة المصلحة العامة والفردية. ويُشجَّع على المرونة ضمن الضوابط الشرعية.
2.2.14. مبدأ القياس
تُتخذ الأحكام الشرعية للمستجدات التقنية في الذكاء الاصطناعي بناءً على القياس مع الأحكام المقررة وسوابق الشريعة، مع مراعاة مطابقة العلة والمقصد. ولا يجوز التوسع في القياس خارج المسموح.
2.2.15. مبدأ وجوب الوسائل للواجب
كل ما لا يتم الواجب إلا به فهو واجب. ويشمل ذلك التدابير الفنية والتنظيمية اللازمة للامتثال للأحكام الشرعية. ويعد الإخلال بالوسائل إخلالاً بالأصل.
2.2.16. مبدأ “الربح مع المسؤولية“
من استفاد مالياً من الذكاء الاصطناعي يتحمل مسؤولية تعويض أي ضرر ناتج عن نشاطه. ولا يُقبل الانتفاع بلا استعداد لتحمّل التعويض. ويُعد هذا حكماً إلزامياً لجميع المشاركين التجاريين في سوق الذكاء الاصطناعي.
2.2.17. وجوب الرقابة المستمرة
يجب توفير رقابة فنية وتنظيمية دائمة على عمل الذكاء الاصطناعي، بما في ذلك إجراء مراجعات وتدقيقات منتظمة للالتزام بالمعايير والأحكام. وتزال أي مخالفات فور اكتشافها.
2.2.18. مبدأ تقديم دفع المفسدة على جلب المصلحة
تُقدَّم إجراءات تقليل الضرر ودفعه على تحقيق المنفعة المحتملة من الذكاء الاصطناعي. ولا يجوز التطبيق إلا بعد التحقق من السلامة وتقليل المخاطر، وتقع واجب الوقاية من الضرر على الجميع.
2.2.19. فرض الكفاية الجماعي
يُعد تطوير وتطبيق تقنيات الذكاء الاصطناعي الحيوية للمجتمع فرض كفاية على الأمة الإسلامية، ولا يجوز ترك المجتمع دون حلول تقنية لازمة عند توفر القدرة على إنجازها، وتوزع المسؤولية بين جميع المختصين المؤهلين.
2.2.20. مبدأ الاحتياط في المشتبهات
عند الشك في مشروعية أو سلامة أنظمة الذكاء الاصطناعي، يجب الأخذ بالأحوط والأكثر أماناً. وتُقدَّم القرارات التي تمنع المخاطر على الدين أو الأخلاق أو المصلحة العامة. ويجب الحذر في جميع حالات عدم اليقين.
2.2.21. مبدأ مراعاة الزمان والمكان
يجب تكييف الأحكام والضوابط المتعلقة باستخدام الذكاء الاصطناعي بحسب تغير الزمان والمكان والظروف، ضمن حدود الشريعة ومراعاة حاجات المجتمع. ولا تكون الأحكام جامدة مع تغيّر واقع التطبيق.
ثانياً: المقاصد العليا للشريعة
2.2.22. حفظ الدين
يُحظر أي استخدام للذكاء الاصطناعي قد يؤدي إلى تشويه أصول الإسلام، أو تقويض الإيمان، أو الحيلولة دون أداء الشعائر الدينية. يجب أن تضمن جميع الحلول التقنية احترام المعتقدات الدينية. ويُعد أي تدخل في مسائل العقيدة أمراً غير مقبول.
2.2.23. حفظ النفس
لا يجوز لأنظمة الذكاء الاصطناعي أن تشكل تهديداً لحياة الإنسان أو صحته في أي مرحلة من مراحل دورة الحياة. وتُعطى الأولوية لسلامة المستخدمين ومن حولهم. ويجب تحديد جميع المخاطر والعمل على تقليلها قبل التطبيق العملي.
2.2.24. حفظ العقل
يُمنع استخدام الذكاء الاصطناعي لنشر المعلومات المضللة أو التلاعب بالوعي أو التسبب في إدمان نفسي ضار. وحماية العقل ووعي المستخدم شرط أساسي لاستغلال الأنظمة. وتُعد كل ممارسة تضر بالصحة النفسية انتهاكاً لأحكام الشريعة.
2.2.25. حفظ المال
يجب ألا يؤدي استخدام الذكاء الاصطناعي إلى الاحتيال أو الخداع أو الربا أو غيرها من الممارسات المالية المحظورة. ويجب أن تكون جميع العمليات شفافة ومتوافقة مع مبادئ النشاط الاقتصادي المشروع. ويتعين ضمان حماية الحقوق المالية لجميع الأطراف في جميع المراحل.
2.2.26. حفظ النسل والعِرض
لا يجوز استخدام الذكاء الاصطناعي للاعتداء على الشرف أو السمعة أو الخصوصية أو الأخلاق. وتُحظر أي وظائف تنتهك الكرامة أو حقوق الإنسان. ويجب ضمان حماية الأسرة والزواج والحياة الخاصة من خلال التدابير الفنية والتنظيمية اللازمة.
ثالثاً: القواعد الفقهية والضوابط لمراحل دورة الحياة
2.2.27. الأمانة و”الحلالية” مصادر البيانات
يجب أن تكون جميع البيانات والموارد المستخدمة في تطوير وتدريب الذكاء الاصطناعي مستمدة بطرق شرعية ونزيهة. ويُمنع استخدام المعلومات من مصادر مشبوهة أو محرمة. ويُعد التحقق من أصل البيانات إجراءً إلزامياً.
2.2.28. حظر تصوير الكائنات الحية
يُحظر في الروبوتات والأنظمة البصرية إنتاج صور واقعية للبشر أو الحيوانات إذا كان ذلك قد يؤدي إلى التعظيم المفرط أو إثارة الفتن الاجتماعية. ولا يجوز استنساخ النماذج التي تخرق الضوابط الدينية أو الأخلاقية. وتقع المسؤولية عن التوافق على عاتق المطورين.
2.2.29. احترام العقود والحقوق المالية
يُمنع منعاً باتاً استخدام بيانات أو تقنيات أو ملكية فكرية للغير بدون إذن. ويجب احترام جميع حقوق الملكية والحقوق المالية على أساس العقود المبرمة. ويُلزم تصحيح أية انتهاكات لهذه الحقوق وتعويض الأضرار فوراً.
2.2.30. الشفافية وغياب الغرر
يجب أن تكون جميع العقود والتعاملات مع الذكاء الاصطناعي واضحة وشفافة لجميع الأطراف. ويُحظر الخداع أو الإبهام أو المخاطر غير المبررة أو تضليل المستخدمين. ويُشترط توثيق العمليات والسجلات الخاصة بالنظام.
2.2.31. المسؤولية غير المباشرة
يتحمل المطور المسؤولية عن الضرر الناتج عن السيناريوهات المدمجة في النظام حتى لو قام بتنفيذها المستخدم النهائي. ولا تسقط هذه المسؤولية بنقل النظام إلى طرف ثالث. ويجب تقييم جميع السيناريوهات المحتملة للاستخدام في مرحلة التصميم.
2.2.32. تقييد الأتمتة الكاملة في الأحكام
يجب أن تظل مسائل التشريع الديني وإصدار الأحكام ضمن الاختصاص الحصري للإنسان. ولا يجوز للذكاء الاصطناعي أن يكون حكماً أو مفتياً مستقلاً. وتُستخدم الأنظمة المؤتمتة في هذا المجال كأداة مساعدة فقط.
2.2.33. حق الاختيار والاستئناف
يجب تمكين المستخدم من حق الاختيار عند التعامل مع الذكاء الاصطناعي، وكذلك توفير إمكانية الطعن في القرارات الصادرة عن النظام. ويجب أن تكون آليات الاستئناف شفافة ومتاحة. وتُعد أي صورة من فرض القرارات مخالفة لحقوق المستخدم.
2.2.34. مراعاة العرف
يجب أن تأخذ أنظمة الذكاء الاصطناعي بعين الاعتبار العادات المحلية والخصوصيات الثقافية ما لم تتعارض مع الشريعة. ويتطلب تطوير وتنفيذ الحلول دراسة مسبقة للمعايير المحلية. ويجوز تطبيق الخوارزميات العامة فقط بعد تكييفها للظروف المحددة.
2.2.35. وجوب التحقق من البيانات الدينية
يجب أن تخضع جميع المعلومات الدينية المقدمة من الذكاء الاصطناعي للتحقق والمراجعة من قبل مختصين مؤهلين. ويُحظر نشر معلومات غير دقيقة أو غير موثوقة. ويتحمل المطورون والمشغلون مسؤولية صحة البيانات.
رابعاً: الإرشادات العملية للتطبيق والتشغيل
2.2.36. التدقيق الشرعي والرقابة
يجب أن تخضع أنظمة الذكاء الاصطناعي لتدقيق شرعي دوري ورقابة من مختصين إسلاميين معتمدين. ويتم توثيق نتائج التدقيق في وثائق رسمية. ويؤدي عدم الامتثال للضوابط إلى سحب الترخيص بالتشغيل.
2.2.37. تصفية المحتوى والوظائف المحرمة
يجب تفعيل فلاتر فعالة لمنع ظهور ونشر المحتوى أو الوظائف المحرمة. وتقع مسؤولية التصفية على جميع أطراف دورة حياة الذكاء الاصطناعي. ويجب تحديث نظام التصفية وتطويره مع ظهور مخاطر جديدة.
2.2.38. توثيق القيود الشرعية
يجب توثيق جميع القيود الشرعية بالتفصيل في الوثائق الفنية ووثائق المستخدم، وضمان توافر الشروحات للمستخدمين والمطورين. وتُعد غموض أو إخفاء هذه الضوابط مخالفة لمتطلبات الشريعة.
2.3. منظومة الأحكام الإلزامية على أساس أخلاقيات الإسلام
2.3.1. الصبر
يتعين على الأطراف المعنية بدورة حياة أنظمة الذكاء الاصطناعي مراعاة تخصيص الوقت والموارد الكافية لتحليل المخاطر والاختبار، والامتناع عن تشغيل الأنظمة قبل معالجة العيوب المكتشفة.
2.3.2. الشكر
يلتزم مطورو الأنظمة بالاعتراف الواجب بمساهمة مؤلفي الأبحاث والبيانات المفتوحة، وضمان استخدام نتائج الأنظمة بما يخدم الصالح العام.
2.3.3. التوكل
يجب على الأطراف في مشاريع الذكاء الاصطناعي الجمع بين الاجتهاد والأمانة العلمية مع الاعتراف بحدود التقنية وعدم مطلقية قدرات الأنظمة.
2.3.4. القناعة
يجب أن تستبعد النماذج الاقتصادية لاستعمال الأنظمة الاستخلاص المفرط للربح المؤدي إلى احتكار البيانات أو تبعية المستخدمين التقنية بشكل غير أخلاقي.
2.3.5. التقوى
يجب على المسؤولين عن الأنظمة الالتزام بالمعايير الإسلامية ومعايير أمن البيانات حتى في غياب الرقابة الخارجية، بما في ذلك توثيق السجلات الداخلية.
2.3.6. التواضع
يجب على قادة المشاريع توثيق قيود النماذج والإعلان العلني عن الأخطاء أو الأعطال، مع إتاحة إمكانية التدقيق الخارجي.
2.3.7. الإخلاص
يجب أن تتوافق الأهداف المعلنة في الوثائق الفنية والاتصالات العامة مع النوايا الحقيقية ووظائف النظام؛ ويُمنع استخدام آليات مخفية.
2.3.8. الأمانة
يجب على الأطراف حماية جميع البيانات الشخصية وغيرها من البيانات الموكلة إليهم باستخدام إجراءات تشفير وتنظيم حديثة، ومنع الوصول غير المصرح به.
2.3.9. العدل
تخضع خوارزميات الأنظمة للتدقيق الإلزامي لضمان خلوها من التمييز أو الانحياز؛ ويجب معالجة أي تحيزات مكتشفة قبل التشغيل الفعلي.
2.3.10. الصدق
يلتزم مزودو الأنظمة بتقديم معلومات صادقة وكاملة وواضحة للمستخدم حول إمكانيات النظام وقيوده ومخاطره، بما في ذلك حالات الخلل المعروفة.
2.3.11. الإحسان
يجب تنفيذ جميع مراحل دورة حياة الأنظمة وفقاً لأفضل الممارسات والمعايير المتاحة بما يحقق أقصى منفعة عامة.
2.3.12. الرحمة
يتعين على المطورين والمشغلين وضع آليات لتقليل الضرر عن الناس والبيئة، وتقديم الأولوية للوظائف التي تحمي الفئات الضعيفة وتدعم المحتاجين.
2.3.13. الأدب والحياء
يجب على الأنظمة المخصصة لتوليد أو تصفية أو نشر المحتوى منع المواد المخالفة للأخلاق العامة والقيم الثقافية والدينية.
2.3.14. الحكمة
عند اتخاذ قرارات بشأن إدخال الأنظمة، يجب على الأطراف المعنية إجراء تحليل للآثار الاجتماعية والبيئية والاقتصادية طويلة الأمد بمشاركة خبراء مستقلين وعلماء.
2.3.15. المساءلة
يتحمل مالكو ومشغلو الأنظمة المسؤولية الشخصية والمالية عن نتائج تشغيل الأنظمة، ويلتزمون بتوفير آلية تدقيق خارجي مفتوح.
2.3.16. الإحسان في العمل
لا تُطرح أي نسخة من النظام للاستخدام إلا بعد اجتياز اختبار جودة موثق يثبت الالتزام بالمواصفات المعلنة والمعايير الصناعية.
2.3.17. الشورى
تتخذ القرارات الرئيسة في مشاريع الأنظمة بصورة جماعية مع المشاركة الإلزامية للمتخصصين في الشريعة والهندسة والأخلاق والقانون؛ ويجب نشر محاضر الاجتماعات.
3. متطلبات التصميم والتنفيذ
3.1. مرحلة التصميم والبحث
3.1.1. الالتزام بالشريعة من البداية
ينبغي تطبيق مبادئ الشريعة والأخلاق الإسلامية منذ المراحل الأولى لدورة حياة تطوير الذكاء الاصطناعي (مرحلة البحث، جمع البيانات، تحليل المتطلبات)، مع مراعاة خصوصية الأنظمة التي تولد أنواعاً مختلفة من المحتوى (نصوص، رسومات، صوت، فيديو، شيفرة برمجية، بيانات)، إذ إن تشويه أو سوء إنتاج المعلومات قد يؤدي إلى نشر مواد غير دقيقة أو محرمة.
3.1.2. التحليل متعدد الأبعاد للمخاطر
يتعين على المطورين ومديري المشاريع إجراء تقييم شامل للمخاطر المحتملة في المراحل المبكرة، باستخدام منهجيات مرنة وعلمية (مثل CRISP-DM للمشاريع التحليلية أو التصميم المعتمد على البيانات مع المراجعة الشرعية). من الضروري تحديد مخاطر التمييز، انتهاك الخصوصية، إنتاج محتوى ديني غير صحيح، أو أية أضرار أخلاقية محتملة.
3.1.3. التعاون مع الخبراء الشرعيين
يُنصح بإشراك علماء الشريعة والمتخصصين في الدراسات الإسلامية في مرحلة ما قبل الإطلاق لتطبيق “الفلترة الشرعية” على المشاريع. تساعد هذه الخبرة المتعددة في تجنب الأخطاء الجوهرية وتكييف الحلول التقنية مع معايير الإسلام.
3.1.4. “تصميم التفكير” و”الحلال من التصميم“
يجب أن يعتمد تصميم أنظمة الذكاء الاصطناعي على مفهوم “الحلال من التصميم”، بحيث تؤخذ القيود والمتطلبات الإسلامية في الحسبان عند بناء السيناريوهات وتجهيز البنية الخوارزمية، لتقليل الحاجة إلى التعديلات لاحقاً. ويشمل ذلك التصميم الأخلاقي للواجهات (UX)، جمع البيانات بشكل صحيح (استبعاد المصادر غير الدقيقة أو المحرمة)، وشفافية منطق العمل.
3.2. مرحلة التنفيذ والتشغيل
3.2.1. التحقق والاختبار
قبل نشر النظام في البيئة الإنتاجية، يجب إجراء اختبارات دقيقة، بما في ذلك التدقيق الديني والأخلاقي. ويتضمن ذلك التحقق من غياب أنماط التمييز، تقييم دقة المحتوى الديني متعدد الوسائط، واختبار الأنظمة لمنع استغلال الثغرات (مثل استخدامها في أنشطة محرمة).
3.2.2. آليات التغذية الراجعة وتصحيح الأخطاء
ينبغي إيلاء اهتمام خاص للاستجابة السريعة عند اكتشاف الأخطاء أو الأحكام غير الدقيقة، خاصة في الخدمات الدينية أو القانونية. ويشمل ذلك إنشاء قنوات للشكاوى، وأدوات لتعديل الخوارزميات بسرعة، وإجراءات “التصحيح الفوري” لمعالجة المشكلات الحرجة بشكل عاجل.
3.2.3. الشفافية تجاه المستخدمين
خلال مرحلة التشغيل، من المهم إبلاغ المستخدمين عن نوعية البيانات التي يتم جمعها، وكيفية معالجتها، وعلى أي أساس تُتخذ القرارات. يجب أن تكون اتفاقيات المستخدم والواجهات واضحة، خالية من الشروط المبطنة، ومطابقة للمعايير الأخلاقية الإسلامية (لا سيما عدم التحريض على أعمال غير مشروعة).
3.2.4. أنظمة المراقبة وتسجيل العمليات
لضمان التشغيل الآمن والشرعي للذكاء الاصطناعي، يجب تطبيق أدوات المراقبة (تسجيل الأحداث، تتبع الشذوذ، التحليل السلوكي). تساعد الإحصائيات المجمعة في كشف الانحرافات في الوقت المناسب، مثل محاولات استخدام النظام لإنتاج محتوى محرم أو عمليات احتيال.
3.2.5. مراعاة المتطلبات التنظيمية
بالإضافة إلى الضوابط الشرعية، يجب عند تشغيل أنظمة الذكاء الاصطناعي الامتثال للقوانين المحلية الخاصة بحماية البيانات (مثل GDPR في أوروبا، والقانون 152-FZ في روسيا وغيرها)، فضلاً عن اللوائح الخاصة بالقطاعات المالية، الطبية، وغيرها من المجالات التي يُستخدم فيها الذكاء الاصطناعي.
3.3. مرحلة التحديث والمراقبة
3.3.1. التدقيق المنتظم والتحسين المتكرر
نظراً للتطور المستمر لتقنيات الذكاء الاصطناعي وتغير مجموعات البيانات والنماذج والهياكل، يُوصى بإجراء تدقيق دوري داخلي وخارجي، مع إشراك خبراء شرعيين مستقلين ومتخصصي الأمن السيبراني.
3.3.2. إجراءات تحديث الخوارزميات
يجب اختبار أي تحديث (مثل نموذج تعلم آلي جديد، تعديل البنية أو توسيع الوظائف) على توافقه مع المعايير الإسلامية، مع إيلاء عناية خاصة لمتطلبات توليد كل نوع من المحتوى (نص، رسومات، صوت، فيديو، كود، بيانات). من المفضل توثيق العملية: وصف تأثير الإصدار الجديد من الخوارزمية على ملف المخاطر الخاص بالمشروع، وتوفير الشفافية لجميع الأطراف ذات العلاقة.
3.3.3. آليات التدخل العاجل
في حال اكتشاف مخالفات خطيرة (مثل استخدام الخوارزمية في أنشطة محرمة أو إنتاج فتاوى دينية غير صحيحة)، يجب وضع إجراءات لتعليق النظام أو العودة إلى النسخة المستقرة السابقة بشكل فوري، مما يقلل الأضرار الممكنة للمستخدمين والمجتمع.
3.3.4. تراكم المعرفة وأفضل الممارسات
على المؤسسات التي تعتمد الذكاء الاصطناعي في السياق الإسلامي تنظيم وتوثيق الخبرات والممارسات المتعلقة بالتحديث الآمن للأنظمة. ويساعد نشر دراسات الحالات والتوصيات المنهجية على نمو القطاع بشكل جماعي وتلافي تكرار الأخطاء السابقة.
4. تنظيم الرقابة الإسلامية
4.1. المسؤولون عن المعايير الإسلامية في الذكاء الاصطناعي
4.1.1. تعيين مسؤول مختص
يجب على كل مؤسسة تطور أو تستخدم الذكاء الاصطناعي في السياق الإسلامي تعيين مسؤول عن المعايير الإسلامية (“المسؤول الإسلامي”) أو فريق عمل، يتولى مهمة مراقبة الالتزام بهذا الميثاق.
4.1.2. مهام المسؤول الإسلامي
يشمل دوره التنسيق مع المجالس الدينية، واستلام استفسارات المستخدمين والمطورين، وتوثيق القضايا ذات الصلة بالشريعة، بالإضافة إلى تقديم التوصيات اللازمة لتصحيح المشاريع والعمليات. ويجوز له المشاركة في الاجتماعات الأساسية الخاصة بتصميم أو تشغيل أو تحديث الأنظمة.
4.1.3. المؤهلات المطلوبة
يفضل أن يمتلك المسؤول الإسلامي معرفة أساسية بالشريعة، وفهماً لمنهجية الفقه الإسلامي، بالإضافة إلى إلمام عام بتقنيات الذكاء الاصطناعي، بما في ذلك أسس توليد المحتوى متعدد الوسائط (نصوص، رسومات، صوت، فيديو، كود، بيانات)، وأن يكون قادراً على تقييم توافق نتائج الأنظمة مع الضوابط الإسلامية.
4.1.4. الاستقلالية والمسؤولية
يجب أن يكون للمسؤول الإسلامي وصول مباشر إلى الإدارة العليا لضمان الحياد وألا يخضع لأي ضغوط من أقسام التسويق أو الإدارة التجارية. ودوره الرئيسي هو منع المخالفات ومساعدة المؤسسة على الالتزام بالمعايير الشرعية.
4.2. لجان المعايير الإسلامية في الذكاء الاصطناعي
4.2.1. إنشاء اللجان
يجوز للمؤسسات الدينية أو التعليمية الكبرى تشكيل لجان متخصصة (أو مجالس شرعية) للذكاء الاصطناعي، تتولى وضع السياسات المنهجية والشرعية وحل القضايا المعقدة والمثيرة للجدل.
4.2.2. تشكيل اللجان
يفضل أن تضم اللجنة:
- علماء الشريعة والمفتين؛
- خبراء في تقنيات المعلومات والذكاء الاصطناعي؛
- قانونيين (عند الحاجة)؛
- ممثلين عن القطاعات أو الجهات المعنية بالتطبيق العملي للذكاء الاصطناعي.
4.2.3. مبادئ العمل
تعتمد أعمال اللجان على الشفافية، والتشاور الجماعي، والالتزام بمنهجية الفقه الإسلامي (أصول الفقه). وتنشر نتائج الفتاوى أو التوصيات بشكل علني أو في الإطار المؤسسي، لتعزيز الثقة لدى الجمهور.
4.2.4. مهام اللجان
تشمل مهام اللجان:
- دراسة تطبيقات الذكاء الاصطناعي وكشف الانتهاكات المحتملة للشريعة؛
- إصدار الفتاوى أو التوصيات الدينية والأخلاقية؛
- إقرار قوائم المصادر الدينية الموثوقة؛
- مراقبة صحة استخدامها في أنظمة الذكاء الاصطناعي (مثل روبوتات المحادثة الدينية)؛
- تقديم الاستشارات للجهات الحكومية أو الشركات في مسائل المعايير الإسلامية للذكاء الاصطناعي.
4.2.5. التعاون مع المؤسسات
إذا لم تكن لدى الشركة جهة إشرافية خاصة بها، يمكنها التوجه لمثل هذه اللجان للحصول على التدقيق المستقل أو الاستشارات الدينية والأخلاقية لمشاريع محددة.
4.3. سجل حلول الذكاء الاصطناعي الإسلامي
4.3.1. هدف السجل
لتعزيز الشفافية والثقة، يمكن إنشاء سجل عام للأنظمة المعتمدة (“المتوافقة شرعياً”). يساعد هذا السجل المستخدمين النهائيين والمستثمرين والجهات الرسمية على معرفة الأنظمة المتوافقة مع الضوابط الإسلامية.
4.3.2. محتوى السجل
يتضمن السجل:
- اسم المنتج أو الخدمة؛
- بيانات عن الشركة المطورة والمسؤول عن المعايير الإسلامية (إن وجد)؛
- وصفاً موجزاً للوظائف؛
- تقييم مدى الالتزام بالشريعة؛
- حالة الشهادة (مثلاً: “متوافق بالكامل”، “متوافق مع ملاحظات”).
4.3.3. إجراءات التصديق
يتم التصديق غالباً بشكل طوعي: تتقدم المؤسسة بطلب إلى لجنة المعايير الإسلامية للذكاء الاصطناعي أو لخبراء معتمدين لإجراء التدقيق وإصدار تقرير. وعند قبول النظام، تُدرج بياناته في السجل. وقد تتطلب الشهادة إعادة تقييم دورية عند تحديث الخوارزميات.
4.3.4. مزايا التصديق
يُعد الظهور في السجل مؤشراً هاماً على مصداقية المنتج وأصالته الإسلامية، مما يعزز ولاء المستخدمين ويوفر ضمانات إضافية للشركاء. وتساهم الشهادة في تحقيق ميزة تنافسية في الأسواق الموجهة للجمهور المسلم.
4.3.5. التنسيق مع الهيئات الحكومية
في بعض الدول، قد يُدار السجل تحت إشراف وزارات الشؤون الدينية أو المجالس الإسلامية المختصة، مما يمنحه صفة رسمية. وفي حالات أخرى، قد يكون ذلك مبادرة من منظمات إسلامية غير حكومية.
5. تدابير الالتزام وتطوير الميثاق
5.1. التزامات المشاركين
5.1.1. يتعهد فاعلو الذكاء الاصطناعي الذين اعتمدوا الميثاق بتطبيق الأحكام والمبادئ المنصوص عليها فيه في ممارساتهم، بما في ذلك تدريب الموظفين على أساسيات الإسلام وإجراء عمليات تدقيق داخلية.
5.1.2. قد يؤدي عدم الالتزام بالمبادئ إلى فقدان ثقة المستخدمين والمؤسسات الدينية.
5.2. التعليم والتوعية
5.2.1. برامج التدريب ورفع الكفاءة
من المناسب أن يخضع المطورون ومديرو المشاريع لدورات متخصصة حول المعايير الإسلامية في تقنيات الذكاء الاصطناعي. ويمكن أن تشمل هذه الدورات أساسيات الشريعة، منهجية الفقه الإسلامي، دراسات حالة من التجارب العالمية، فضلاً عن مراجعات للمعايير التقنية والتنظيمية. إن الانتظام في رفع الكفاءة يُعمِّق الفهم للأبعاد الدينية والأخلاقية.
5.2.2. الأبحاث متعددة التخصصات
لدعم تطور الذكاء الاصطناعي الإسلامي، ينبغي تشجيع الأبحاث العلمية في تقاطع العلوم الشرعية والقانون وعلم الاجتماع وعلوم الحاسوب. يوفّر هذا الأساس لابتكار حلول تجمع بين المتطلبات التقنية والدينية. كما تسهم النشر في المجلات المحكمة والمشاركة في المؤتمرات في تعميم الخبرة ورفع مستوى المجتمع.
5.2.3. الشراكة مع المؤسسات التعليمية
يمكن للجامعات والكليات الإسلامية والمعاهد البحثية التعاون في إعداد كوادر متخصصة في مجال “الذكاء الاصطناعي الإسلامي”. وتساعد البرامج المشتركة، والتدريب العملي، والمنح على تكوين رؤية شاملة تجمع بين التقنية والإسلام.
5.2.4. الندوات وورش العمل الداخلية
يُنصح المؤسسات التي تعتمد الميثاق بعقد جلسات تعليمية داخلية منتظمة، حيث يمكن لخبراء الشريعة والمبرمجين ومديري المشاريع مناقشة الحالات المعقدة، وتبادل آخر التطورات التقنية، وبحث سبل تطبيق المبادئ الأخلاقية عملياً.
5.3. تبادل الخبرات والتعاون
5.3.1. تأسيس مجتمعات مهنية
يمكن لمجتمع “الذكاء الاصطناعي الإسلامي” (في شكل جمعيات أو تجمعات) تجميع أفضل الممارسات، إجراء أبحاث مشتركة، ووضع معايير موحدة. ويستطيع الأعضاء تطوير قواعد بيانات مفتوحة (تراعي الشريعة)، إصدار أدلة توجيهية، وتنظيم مشاورات قطاعية.
5.3.2. البيانات المفتوحة والضوابط الشرعية
يُعد نشر البيانات المفتوحة وسيلة لتطوير العلوم، لكن يجب احترام الخصوصية والأخلاق الإسلامية (بعدم كشف البيانات الشخصية أو نشر محتوى محرم). وتساهم المبادرات المشتركة في إنشاء قواعد بيانات “حلال” آمنة لتدريب نماذج الذكاء الاصطناعي.
5.3.3. التعاون مع مؤسسات المالية الإسلامية والمنظمات الخيرية
في ظل تنامي دور الصيرفة الإسلامية، التأمين، الأوقاف وغيرها، فإن التعاون مع هذه المؤسسات يعزز إدماج حلول الذكاء الاصطناعي الإسلامي. ومن الأمثلة المشاريع المشتركة في تحليل التبرعات، إدارة شهادات الحلال، أو منصات التعليم للفئات الأقل حظاً.
5.3.4. المؤتمرات والمسابقات الدولية
يساعد تنظيم المؤتمرات الدورية، ومسابقات الشركات الناشئة، والندوات حول الذكاء الاصطناعي الإسلامي في توسيع شبكة العلاقات وتبادل أفضل الممارسات. ويُسهم انخراط العلماء والخبراء من مختلف البلدان في تعميق التنوع وتكييف الميثاق مع الخصوصيات المحلية.
5.4. مراجعة وتحديث الميثاق
5.4.1. الطابع التكراري للتطوير
مع التطور المتسارع لمجال الذكاء الاصطناعي (منهجيات تعلم جديدة، الحوسبة الكمية وغيرها)، يجب مراجعة أحكام الميثاق باستمرار لمواكبة المستجدات. وتضمن المراجعة الدورية وإشراك الخبراء من الشريعة والأخلاق وتكنولوجيا المعلومات بقاء الوثيقة حديثة وفعالة.
5.4.2. إجراءات وآليات المراجعة
يوصى بتشكيل فرق عمل (Task Force) لدى اللجان المختصة لمتابعة الاتجاهات التقنية الكبرى وإعداد اقتراحات لتحديث الميثاق. من المهم أن تكون هذه العملية شفافة ومفتوحة أمام المجتمع العلمي والمهني.
5.4.3. الاستشارات العامة
قبل إقرار النسخة الجديدة من الميثاق، يُفضل إجراء مشاورات عامة، بدعوة المطورين والخبراء الدينيين وممثلي المجتمع المدني. يسهم ذلك في كشف الجوانب الإشكالية، مراعاة وجهات النظر المختلفة، وتعزيز القبول العام للوثيقة.
5.4.4. دعم التنظيمات المحلية
يحق للدول والمناطق ذات الأغلبية المسلمة وضع معايير أو أدلة خاصة بها تستند إلى هذا الميثاق. ويحقق ذلك تبادلاً مستمراً للخبرات: تثري الممارسات المحلية الوثيقة المركزية، بينما تُشكّل المبادئ المقررة فيها إطاراً موحداً.
6. الأحكام الختامية
6.1. الانسجام بين التقدم والمعايير الشرعية
6.1.1. التقدم العلمي والتقني في ضوء الإسلام
اشتهرت الحضارة الإسلامية عبر التاريخ بإسهاماتها في العلوم والثقافة. ويمكن اعتبار تطور التقنيات، بما فيها الأنظمة المنتجة لمحتوى متعدد الوسائط (نصوص، رسومات، صوت، فيديو، شيفرة برمجية، بيانات)، امتداداً لهذا التقدم، بشرط ألا تخرق الابتكارات أحكام الشريعة والقيم الأخلاقية. ويُسمح بتبني التقنيات الجديدة فقط إذا لم تتعارض مع أوامر الإسلام وتسهم في تعزيز الإيمان والقيم الأخلاقية للمجتمع.
6.1.2. مواءمة التقدم التقني مع القيم الإسلامية
يجب أن تُحل جميع المسائل المتعلقة بتطبيق وتنظيم الذكاء الاصطناعي على قاعدة أولوية القيم الإسلامية على التقدم التقني، وليس العكس. فلا يتحقق الانسجام بين الابتكار وأحكام الشريعة إلا بهذا المبدأ.
6.1.3. التنمية المستدامة والبُعد الروحي
هدف المجتمع المسلم ليس الريادة التقنية فقط، بل الحفاظ على القيم الأخلاقية. لذا يجب أن تراعي الاستراتيجيات المتعلقة بالذكاء الاصطناعي جميع الأبعاد: الاقتصادية، والبيئية، والاجتماعية، والروحية. وهذا يضمن تنمية مستدامة حقيقية لا تضحي بالقيم الدائمة مقابل النجاح المؤقت.
6.2. تعزيز الثقة وتطوير المجتمع
6.2.1. أهمية الأمانة (الثقة)
تُعد الثقة بين أطراف العلاقات المجتمعية من المبادئ الجوهرية في الإسلام. ويسهم التطبيق الشفاف والمسؤول للذكاء الاصطناعي في تقوية الروابط المجتمعية، بحيث تتمكن الأمة الإسلامية من الاستفادة من منجزات العلم دون خوف من الغش أو الاستغلال.
6.2.2. الإسهام في الخير العالمي
إن نشر النهج الإسلامي في الذكاء الاصطناعي يعود بالنفع ليس فقط على المسلمين، بل على الإنسانية جمعاء. ويؤكد التقليد الإسلامي على أهمية العدل (العدل) والرحمة (الرحمة)، وهما من القيم الكونية التي يمكن أن تؤسس لمبادرات دولية عادلة في مجال الذكاء الاصطناعي.
6.2.3. تطوير المؤسسات المدنية
عندما تُطبق تقنيات الذكاء الاصطناعي وفقاً لمبادئ الشريعة، تصبح وسيلة لتمكين الأفراد، وتعزيز الوصول للتعليم والصحة والخدمات الحلال، ما يؤدي إلى رفع مستوى المعيشة وتشكيل مجتمع مسؤول يساهم كل فرد فيه في الصالح العام.
6.3. دعوة إلى المسؤولية المشتركة
6.3.1. نهج متعدد التخصصات والمستويات
يُوجه ميثاق الذكاء الاصطناعي الإسلامي إلى جميع المعنيين: العلماء الشرعيين، الباحثين، رجال الأعمال، الجهات الحكومية، والمستخدمين. ولا يتحقق الأمن والمنفعة الحقيقية للذكاء الاصطناعي إلا بتكاتف الجهود وتنسيقها بين جميع الأطراف ذات العلاقة.
6.3.2. الرقابة الجماعية
يرتكز الفقه الإسلامي على مبدأ المراقبة والتكافل. وفي مجال الذكاء الاصطناعي، يعني ذلك شفافية المشاريع، إتاحة التدقيق الخارجي، وتبادل المعلومات حول المخاطر المحتملة. وتساهم المسؤولية الجماعية في تقليل احتمالات الأعطال النظامية أو الاستخدام غير الأخلاقي للخوارزميات.
6.3.3. التعاون بين المذاهب
عند تطوير أو تطبيق الذكاء الاصطناعي في السياق الإسلامي، يُوصى بالتشاور مع ممثلي مختلف المدارس والتيارات الإسلامية. ويُعزز الحوار المذهبي الشامل مراعاة جميع أوجه الاجتهاد الشرعي، ويضفي الشرعية الواسعة على القرارات المتخذة.
6.3.4. إرث صالح للأجيال القادمة
إن التقنيات التي يتم تطويرها اليوم ستؤثر في مستقبل الأمة. وإن الالتزام بمبادئ الشريعة عند إدخال الذكاء الاصطناعي يؤسس لتربية أجيال مسؤولة تواصل النهوض بالمجتمع والعلم وفق إرادة الله تعالى.
6.3.5. الاعتراف بالتشابك العالمي
الذكاء الاصطناعي ظاهرة عالمية، ولا يمكن للأمة الإسلامية النظر إليه في معزل عن العالم. ويهدف هذا الميثاق لإثبات الاستعداد للتعاون، ويدعو جميع المعنيين (بمن فيهم غير المسلمين) للحوار، وتبادل أفضل الممارسات، والسعي المشترك نحو حلول عادلة.
6.4. مستقبل “الذكاء الاصطناعي القوي” والتحوّل ما بعد الإنساني (ترانسهيومانيزم)
- في حال تطور تقنيات الذكاء الاصطناعي القوي التي تدّعي الوعي أو الاستقلالية، يجب الحفاظ على المبدأ الراسخ بأن الإنسان وحده هو المزوّد بالنفس والعقل، المسؤول أمام الله تعالى.
- كل محاولة لـ “نقل” العقل البشري إلى آلة، أو “غرس” وعي اصطناعي في كيان بيولوجي، أو نسب صفات الألوهية للآلة، تتعارض كلياً مع العقيدة (التوحيد).
- ينبغي إخضاع مشاريع “التحول ما بعد الإنساني” التي تزيل الحدود بين الإنسان والآلة لرقابة شرعية صارمة، نظراً لخطر فقدان المسؤولية الأخلاقية والفطرة الإنسانية.
- في جميع الأحوال، تبقى عقيدة التوحيد ثابتة: فلا يُتوجَّه بالعبادة إلا لله تعالى، ولا لمخلوق مهما بلغ من الكمال التقني.
إن هذا الميثاق الإسلامي لاستخدام الذكاء الاصطناعي وثيقة مرجعية لاعتماد وتوظيف الذكاء الاصطناعي لخدمة المجتمع الإسلامي وتحقيق مقاصد الشريعة العليا. ويمكن استكمال أحكامه بمعايير قطاعية أو تنظيمات محلية تفصل في المسائل الخاصة، مع بقاء كل مواده قائمة على العدل، وكرامة الإنسان، واحترام الشريعة، والسعي إلى تحقيق الخير العام.