الذكاء الاصطناعي بين الحوكمة والحرية… من يكبح من؟
المعايير تتعدد... والتقنيات تتخطى الحدود

بينما تتسارع وتيرة نشر الذكاء الاصطناعي في مختلف المجالات، من قرارات الائتمان إلى التوائم الرقمية، لم تكن الحاجة إلى الحوكمة الواعية والمسؤولة أكثر إلحاحاً من اليوم. على هامش مؤتمر «SAS Innovate 2025» الذي استضافته مدينة أورلاندو الأميركية هذا الشهر، قال ريدجي تاونسند، نائب رئيس وحدة أخلاقيات البيانات في شركة «SAS»: «إن الذكاء الاصطناعي يسمح بالتحرك بسرعة… لكن الحوكمة هي المكابح». ونبّه خلال حديثه الخاص لـ«الشرق الأوسط» أنه حتى الآن «لا يملك كثير من المؤسسات الشجاعة للضغط عليها».
الثقة والحوكمة في القطاع المصرفي
في قطاع البنوك والخدمات المالية، حيث يُستخدم الذكاء الاصطناعي منذ عقود في كشف الاحتيال وتقييم الجدارة الائتمانية، تتضاعف أهمية الحوكمة بسبب حساسية السمعة وشدة التنظيم. وأوضح تاونسند أن لدى البنوك ممارسات ومعايير راسخة، وهي معتادة على بيئات تنظيمية صارمة. لكن الذكاء الاصطناعي اليوم ينتشر خارج أقسام المخاطر، ليصل إلى الموارد البشرية والدعم الفني وسير العمل الداخلي. وأشار إلى أن البنوك اليوم تتبنى نماذج مختلفة، بعضها يدمج فرق إدارة المخاطر ضمن فرق حوكمة الذكاء الاصطناعي الأكبر، بينما تفضّل أخرى إبقاءها منفصلة لضمان الاستقرار. وذكر أن القرار النهائي لا يزال غير محسوم، لكن ما لا يمكن التفاوض حوله هو الحاجة إلى الحفاظ على الثقة. وأكّد تاونسند على أهمية القدرة على شرح سبب حصول هذا العميل على قرض، ولم يحصل الآخر عليه، على سبيل المثال، دون تعريض الأنظمة المعقدة بالكامل للمستهلكين.
الحوكمة ليست أداة، بل ثقافة
أطلقت شركة «ساس» وحدة استشارية مخصصة لحوكمة الذكاء الاصطناعي. وأشار تاونسند إلى أن ردود الفعل من العملاء كانت «إيجابية للغاية»، لكن التحدي الأكبر يتمثل في مقاومة التغيير داخل المؤسسات. وقال إن «العمل الحقيقي يبدأ بعد الأدوات…. الحوكمة ليست منتجاً، بل حواراً مع الإدارة العليا وثقافة مؤسسية متجذرة». وذكر أن القطاع العام يواجه تحديات أكبر، إذ يصعب على الجهات الحكومية تعديل هياكلها بسرعة لاستيعاب وتيرة تطور الذكاء الاصطناعي. وأشار إلى وجود وعي متزايد، «لكن الهيكل الإداري في كثير من الحكومات لا يسمح بالتحرك بالسرعة المطلوبة».
بين الحذر والأمل
قدّم تاونسند نظرة دقيقة ومتحفظة عن أخلاقيات استخدام البيانات الاصطناعية والتوائم الرقمية. وقال: «إذا استخدمت البيانات الاصطناعية بطريقة خاطئة، يمكن أن تضخم التحيزات القائمة. لكن إذا استُخدمت بحكمة، يمكن أن تساعدنا في اكتشاف هذه التحيزات ومعالجتها».
وأقرّ تاونسند، خلال حديثه لـ«الشرق الأوسط»، بأن الذكاء الاصطناعي التوليدي (GenAI) يمثل تحدياً جديداً بالكامل. وشرح أنه داخل «ساس» يتم تضمينه في منتجات مثل «كوبايلوت» (Copilot)، لكن ضمن ضوابط واضحة مثل تقنيات «RAG» للحدّ من الانحرافات. وأشار إلى أن الشركة تطور حالياً أدوات جديدة لحوكمة «GenAI»، تتضمن «Model Manager» وبطاقات النماذج، إلى جانب منتج شامل للحوكمة سيُعلن عنه قريباً.
الحوسبة الكمية… كن مستعداً جيداً
وحول مستقبل الحوسبة الكمية، دعا تاونسند إلى التريث، قائلاً: «الحوسبة الكمية تعني السرعة، لكننا لسنا مستعدين بعد لنشر الضرر بسرعة».
تنصح «ساس» باستخدام إطار حوكمة يسمى طبقة التفعيل (Activation Layer)، يتضمن الرقابة والعمليات والضوابط والثقافة. وأوضح أن قلة من المؤسسات اليوم جاهزة فعلياً لاستخدام القدرات الكمية. ونقل أن «معظم المؤسسات لا تزال تكافح مع أساسيات الذكاء الاصطناعي. فلنبدأ أولاً بتنظيف بياناتنا».
توحيد قوانين الذكاء الاصطناعي عالمياً
رغم التفاؤل بشأن التعاون الدولي، يشكك تاونسند في إمكانية توحيد القوانين عالمياً. وقال إنه «لن نحصل على لغة موحدة، لكن يمكننا بناء مستوى من الاتساق يسمح بالتعاون الدولي. ويبين جهود منظمات مثل (OECD) والمنتدى الاقتصادي العالمي، بالإضافة إلى مبادرات في الاتحاد الأوروبي وكوريا واليابان». ويفصّل أن المستقبل يكمن في التوافق التقني، مثل بروتوكولات «عميل لعميل» (Agent-to-Agent) التي تعمل عليها شركات كبرى، مثل «غوغل» و«أنثروبيك». واستشهد تاونسند بمثال واضح قائلاً: «كما أن الكهرباء تعمل رغم اختلاف المقابس، والإنترنت يعمل رغم اختلاف الحدود، يمكن للذكاء الاصطناعي أن يعمل ضمن تناغم وظيفي عالمي».
فجوة المعرفة… ومعركة الثقة
في نهاية المطاف، يرى تاونسند أن «أمية الذكاء الاصطناعي» هي التحدي الأكبر قائلاً إن «معظم الناس يخافون من الذكاء الاصطناعي لأنهم لا يفهمونه. لا يمكنك تنظيم ما لا تفهمه». ونوّه إلى الحاجة «إلى مجتمع يعرف ما يطلبه من الشركات. من دون ذلك، ستبقى الثقة هشّة».
وفي نهاية حديثه، يجزم تاونسند أن «الحوكمة ليست قضية تقنية، بل قضية قيادة». ويقول إن «ساس» تسعى من خلال وحدة أخلاقيات البيانات إلى ترسيخ ثقافة مساءلة تحفّز العملاء والمؤسسات على التفكير بعمق، والعمل بحذر، ونشر الذكاء الاصطناعي بحكمة. ويختتم قائلاً: «نحن لسنا هنا لبيع برامج فقط… بل لنطرح سؤالاً؛ هل الذكاء الاصطناعي الذي نبنيه يعكس أفضل ما فينا؟».
- أورلاندو – الولايات المتحدة