انتقل إلى المحتوى الرئيسي
الركائز السبع — النشر
مشاركة

بنيت نموذج ذكاء اصطناعي. والآن ماذا؟

٠١ مايو ٢٠٢٦ · Engineer Said Sulaiman Al Azri

في عُمان، تصل مشاريع الذكاء الاصطناعي إلى مرحلة النشر أسرع من أي وقت مضى. إثبات المفهوم يبهر فريق القيادة. مورد يقدم نموذجاً يعمل. فريق علوم البيانات الداخلي يسلّم نموذجاً أولياً ينتج نتائج واعدة. الضغط للدخول حيّ فوراً.

لكن النشر ليس خط النهاية — بل هو بداية المسؤولية التشغيلية. ولمعظم المؤسسات، هذه هي بالضبط حيث تتداعى الحوكمة.

من النموذج الأولي إلى الإنتاج — بلا خطة

يتكرر النمط عبر القطاعات: يُنقل نموذج إلى الإنتاج دون قائمة مراجعة نشر موثقة، ودون عتبات أداء محددة، ودون خطة مراقبة، ودون عملية واضحة لما يحدث عندما يتراجع النموذج أو يتغير سياق العمل. الفريق الذي بنى النموذج ينتقل إلى المشروع التالي. يعمل النظام دون إشراف. بعد شهور، يلاحظ أحدهم أن المخرجات قد انحرفت، لكن لا يملك أحد السلطة أو العملية للتدخل.

هذا ما يسميه نموذج الحوكمة السباعي للذكاء الاصطناعي بحالة "المستوى 1 — عشوائي" في الركيزة الرابعة (النشر): أنظمة الذكاء الاصطناعي تعمل، لكن دورة حياتها غير محكومة.

كيف يبدو النشر المحكوم

تؤسس ممارسة نشر ناضجة أربع تخصصات. أولاً، مراجعة جاهزية النشر — بوابة موثقة يجب أن يمر بها كل نظام ذكاء اصطناعي قبل الدخول حياً، تغطي التحقق التقني واختبار التحيز وتقييم الأمن وتوقيع أصحاب المصلحة. ثانياً، المراقبة المستمرة — تتبع آلي لأداء النموذج مقابل مقاييس محددة (الدقة، العدالة، مؤشرات الانحراف)، مع تنبيهات عند خرق العتبات. ثالثاً، إدارة التغيير — عملية محكومة لتحديث أو إعادة تدريب أو استبدال النماذج، تتضمن ضبط الإصدارات وإجراءات الاستعادة وتقييم التأثير للتغييرات في بيانات التدريب أو بنية النموذج. ورابعاً، الإيقاف — عملية نهاية حياة محددة تتضمن أرشفة مصنوعات النموذج، وتوثيق الدروس المستفادة، وضمان إخطار الأنظمة والمستخدمين المصابين والانتقال منهم.

البعد الوطني

تتناول السياسة العامة لوزارة النقل والاتصالات وتقنية المعلومات لعام 2025 صراحة المرحلة التشغيلية لأنظمة الذكاء الاصطناعي، وتتطلب إشرافاً بشرياً مستمراً ومراجعة دورية والقدرة على تجاوز أو تعليق القرارات الآلية. للجهات الحكومية التي تنشر الذكاء الاصطناعي في خدمات مواجهة للمواطنين، هذا يعني أن النشر ليس حدثاً تقنياً لمرة واحدة — بل التزام حوكمة مستمر. ستحتاج المؤسسات التي تسعى لشهادة ISO/IEC 42001 إلى إثبات دورة حياة كاملة لنظام الذكاء الاصطناعي، من التصميم عبر النشر إلى التقاعد، مع ضوابط موثقة في كل مرحلة.

ثمن التأخير

تواجه المؤسسات التي تنشر الذكاء الاصطناعي بلا حوكمة دورة حياة ثلاثة مخاطر متصاعدة. تدهور الأداء: النماذج المدرّبة على بيانات تاريخية تنحرف مع تغير العالم — تتحول سلوكيات العملاء، وتتطور اللوائح، وتتقلب ظروف السوق — وبدون مراقبة، لا تعلم المؤسسة حتى يصبح الضرر مرئياً. التعرض التنظيمي: بموجب كل من قانون حماية البيانات الشخصية والسياسة العامة لوزارة النقل والاتصالات، يجب على المؤسسات أن تُثبت إشرافها على أنظمة صنع القرار الآلي، لا عند الإطلاق فحسب بل طوال حياتها التشغيلية. وهشاشة مؤسسية: عندما يغادر الفريق الذي بنى نموذجاً أو ينتقل، ولا يوجد توثيق أو مراقبة أو عملية تسليم، فإن المؤسسة تشغل نظاماً لم تعد تفهمه.

توجد الركيزة الرابعة من نموذج الحوكمة السباعي للذكاء الاصطناعي لأن النشر ليس حدثاً — بل التزام. تمنح الاستراتيجية للذكاء الاصطناعي اتجاهاً. تخصص المساءلة الملكية. يضمن الذكاء أن الأساس سليم. يحكم النشر الآلة وهي في حركة.


هذا المقال جزء من سلسلة تستكشف كل ركيزة من نموذج الحوكمة السباعي للذكاء الاصطناعي™. التالي: الركيزة الخامسة — البيانات والأخلاقيات.

قيّم نضج حوكمة الذكاء الاصطناعي في مؤسستك

يوفر نموذج الحوكمة السباعي للذكاء الاصطناعي™ تقييماً منظماً وقابلاً للقياس. ابدأ بجلسة استكشافية مجانية.

اطلب جلسة استكشافية