انتقل إلى المحتوى الرئيسي
الركائز السبع — المساءلة
مشاركة

من يتحمل المسؤولية عندما يتخذ الذكاء الاصطناعي قراراً؟

٢٧ أبريل ٢٠٢٦ · Said Sulaiman Al Azri

تتخذ أنظمة الذكاء الاصطناعي قرارات تؤثر على المواطنين والعملاء والموظفين في عُمان. تقوم الجهات الحكومية بأتمتة فحص أهلية الخدمات. تستخدم البنوك الذكاء الاصطناعي في تقييم الائتمان. تنشر مقدمو الخدمات الصحية أدوات دعم التشخيص. يضبط تجار التجزئة الأسعار ديناميكياً عبر نماذج خوارزمية.

لكن عندما يحدث خطأ — قرار ائتماني متحيز، أو رفض أهلية غير صحيح، أو توصية طبية معيبة — لا تستطيع معظم المؤسسات الإجابة على أبسط سؤال: من المسؤول؟

نشاط بلا ملكية

في كثير من المؤسسات، تتشتت مسؤولية الذكاء الاصطناعي إلى درجة تكاد تتلاشى فيها فعلياً. قسم تكنولوجيا المعلومات هو من اختار المورد. فريق علوم البيانات هو من درّب النموذج. وحدة العمل هي من طلبت حالة الاستخدام. القانوني هو من راجع العقد. لكن لا يملك أي من هذه الأطراف مساءلة واضحة وموثقة عن مخرجات النظام، أو أخطائه، أو عواقبه.

هذا التشتت في المسؤولية هو ما يسميه نموذج الحوكمة السباعي للذكاء الاصطناعي بحالة "المستوى 1 — عشوائي" في الركيزة الثانية (المساءلة): الحماس موجود، لكن لا يملك أحد النتائج.

كيف تبدو المساءلة الحقيقية

تؤسس إطار مساءلة حقيقي للذكاء الاصطناعي أربعة أمور. أولاً، هيئة حوكمة معينة — لجنة مجلس إدارة، أو مجلس أخلاقيات للذكاء الاصطناعي، أو راعٍ تنفيذي — تملك سلطة موثقة للموافقة على الأنظمة أو تعليقها أو إيقافها. ثانياً، ملكية واضحة لكل نظام منشور: شخص مسمى باسمه يستطيع أن يشرح كيف يعمل، وما البيانات التي يستخدمها، وما أوضاع فشله. ثالثاً، صلاحيات قرار محددة — من يستطيع التفويض بالنشر، ومن يجب أن يراجع المخرجات في السيناريوهات عالية المخاطر، ومن يملك سلطة التجاوز. ورابعاً، مسارات تصعيد ومتطلبات الإشراف البشري، بحيث لا يعمل أي نظام ذكاء اصطناعي دون مسار قابل للتتبع يعود إلى متخذ قرار بشري.

البعد الوطني

في عُمان، المساءلة ليست اختيارية. يفرض قانون حماية البيانات الشخصية (المرسوم السلطاني 6/2022) على مسؤولي البيانات الإبقاء على سجلات المعالجة وتعيين جهات مسؤولة. تفرض السياسة العامة لوزارة النقل والاتصالات وتقنية المعلومات لعام 2025 إشرافاً بشرياً وشفافية ومساءلة لأنظمة الذكاء الاصطناعي المستخدمة في الخدمات الحكومية وخدمات الجمهور. ومع تواءم عُمان مع المعايير الدولية مثل ISO/IEC 42001، ستُتوقع من المؤسسات إثبات هياكل حوكمة تحمل أدواراً مسمية ومسؤوليات موثقة.

ثمن التأخير

تواجه المؤسسات التي لا تمتلك مساءلة واضحة للذكاء الاصطناعي ثلاثة مخاطر متزايدة. تنظيمية: بموجب قانون حماية البيانات الشخصية، يمكن أن يؤدي الفشل في تعيين مسؤوليات حماية البيانات إلى عقوبات. سمعة: عندما ينتج نظام ذكاء اصطناعي نتيجة ضارة ولا يستطيع أحد تفسير السبب، يتآكل ثقة الجمهور فوراً. وعملية: بدون ملكية محددة، تتعطل مشاريع الذكاء الاصطناعي، وتنحرف النماذج دون رقابة، وتأتي المعالجة التصحيحية متأخرة جداً.

توجد الركيزة الثانية من نموذج الحوكمة السباعي للذكاء الاصطناعي لأن الذكاء الاصطناعي بلا مساءلة ليس حوكمة — بل تفويض بلا رقابة. تمنح الاستراتيجية للذكاء الاصطناعي اتجاهاً. تضمن المساءلة أن هناك من يقود.


هذا المقال جزء من سلسلة تستكشف كل ركيزة من نموذج الحوكمة السباعي للذكاء الاصطناعي™. التالي: الركيزة الثالثة — الذكاء.

قيّم نضج حوكمة الذكاء الاصطناعي في مؤسستك

يوفر نموذج الحوكمة السباعي للذكاء الاصطناعي™ تقييماً منظماً وقابلاً للقياس. ابدأ بجلسة استكشافية مجانية.

اطلب جلسة استكشافية