كل نظام ذكاء اصطناعي موثوقيته لا تتجاوز موثوقية البيانات التي يستهلكها. في عُمان، تغذي المؤسسات نماذج التعلم الآلي بسجلات تاريخية وقواعد بيانات عملاء وسجلات تشغيلية وبيانات من مصادر خارجية — غالباً دون طرح الأسئلة الجوهرية حول الجودة والمنشأ أو التحيز.
تدرّب الجهات الحكومية نماذجها على بيانات إدارية قديمة بعقود. تستخدم المؤسسات المالية تواريخ ائتمان تعكس تحيزات متوارثة. تنشر مقدمو الخدمات الصحية أدوات تشخيصية درّبت على مجتمعات قد لا تمثل التركيبة الديموغرافية العُمانية. في كل حالة، يبدو الذكاء الاصطناعي أنه يعمل — حتى ينتج نتيجة لا يمكن تفسيرها أو الدفاع عنها.
بيانات بلا حوكمة
النمط الأكثر شيوعاً مألوف: البيانات متوفرة بغزارة، لكن لا أحد يملك جودتها. تحتوي قواعد البيانات على سجلات مكررة وتنسيقات متناقضة وتحولات غير موثقة. تُجمَّع مجموعات بيانات التدريب من قبل أي من احتاجها أولاً، دون سجل لكيفية ترشيحها وتصنيفها أو التحقق منها. تتدفق البيانات الشخصية الحساسة إلى مسارات الذكاء الاصطناعي دون خريطة موافقة واضحة أو سياسات الاحتفاظ.
هذا ما يسميه نموذج الحوكمة السباعي للذكاء الاصطناعي بحالة "المستوى 1 — عشوائي" في الركيزة الثالثة (الذكاء): البيانات متوفرة، لكن سلامتها غير محكومة.
كيف تبدو حوكمة الذكاء الحقيقية
تؤسس النضج في الركيزة الذكية أربع قدرات. أولاً، معايير جودة البيانات — قواعد موثقة للدقة والاكتمال والاتساق والحضور تطبق على كل مجموعة بيانات تُستخدم في تدريب أو استنتاج ذكاء اصطناعي. ثانياً، إدارة دورة الحياة — سياسات واضحة تحكم كيفية جمع البيانات وتخزينها وتحويلها واستخدامها وأرشفتها وحذفها، مع مسارات تدقيق في كل مرحلة. ثالثاً، توريد البيانات بأخلاق — إجراءات موثقة تضمن أن بيانات التدريب تُحصل عليها بموافقة مناسبة، وأن تقييمات التحيز تُجرى قبل تدريب النموذج، وأن السمات الحساسة تُحدَّد وتُعالج وفقاً للسياسة. ورابعاً، إدارة المعرفة — القدرة المؤسسية على التقاط ومشاركة وإعادة استخدام الدروس المستفادة من عمليات نشر الذكاء الاصطناعي، ومراجعات أداء النماذج، وقرارات الحوكمة.
البعد الوطني
يفرض قانون حماية البيانات الشخصية في عُمان (المرسوم السلطاني 6/2022) التزامات محددة على جودة البيانات. يجب على المسؤولين عن المعالجة ضمان أن البيانات الشخصية دقيقة ومحدثة وذات صلة بغرض المعالجة. يمنح القانون أيضاً حقوقاً للأفراد — الوصول والتصحيح والحذف — تتطلب من المؤسسات أن تعرف بالضبط ما البيانات التي تمتلكها وأين تتدفق. بالنسبة لأنظمة الذكاء الاصطناعي، هذا يعني أن كل مجموعة بيانات تدريب وكل مسار استنتاج يجب أن يكون قابلاً للتتبع إلى أساس قانوني ومعيار جودة موثق. تعزز السياسة العامة لوزارة النقل والاتصالات وتقنية المعلومات لعام 2025 هذه المتطلبات بإلزامية الشفافية في كيفية استخدام أنظمة الذكاء الاصطناعي للبيانات، لا سيما في الخدمات الموجهة للجمهور.
ثمن التأخير
تواجه المؤسسات التي تعامل البيانات كمسألة تقنية لا أولوية حوكمة ثلاثة مخاطر متصاعدة. الامتثال: بموجب قانون حماية البيانات الشخصية، معالجة بيانات شخصية غير دقيقة أو مفرطة دون ضوابط مناسبة هو انتهاك تنظيمي، لا مجرد قضية جودة بيانات. فشل النموذج: أنظمة الذكاء الاصطناعي المدرّبة على بيانات غير مدققة تنتج مخرجات غير موثوقة — قرارات متحيزة، تنبؤات غير دقيقة، توصيات لا يمكن تفسيرها — تتآكل الثقة وتخلق التزاماً. والعمى الاستراتيجي: بدون ممارسات إدارة المعرفة، تكرر المؤسسات أخطاءها، وتفقد التعلم المؤسسي عند تغيير الكوادر، ولا تستطيع إثبات للجهات التنظيمية أو المجالس أن أنظمة الذكاء الاصطناعي لديها في تحسن مستمر.
توجد الركيزة الثالثة من نموذج الحوكمة السباعي للذكاء الاصطناعي لأن الذكاء لا يتعلق بامتلاك البيانات — بل بامتلاك بيانات تثق بها، وتستطيع تفسيرها، والدفاع عنها. تمنح الاستراتيجية للذكاء الاصطناعي اتجاهاً. تخصص المساءلة الملكية. يضمن الذكاء أن الأساس سليم.
هذا المقال جزء من سلسلة تستكشف كل ركيزة من نموذج الحوكمة السباعي للذكاء الاصطناعي™. التالي: الركيزة الرابعة — النشر.