التخطي إلى المحتوى

أكد مشاركون في جلسة حوارية، نظمها مركز تريندز للبحوث والاستشارات، أن مستقبل الذكاء الاصطناعي يحتاج إلى تطوير أدوات فعالة لاستشراف المستقبل، فضلاً عن اتباع سياسيات وسنّ تشريعات ناجعة حيال استخدام البرمجيات وعلم الخوارزميات، مع ضرورة وضع منهجية شاملة تركز على المجتمع وتؤكد أخلاقية ومسؤولية الأنظمة والتطبيقات التكنولوجية.

وأشار المشاركون إلى أن الذكاء الاصطناعي أصبح جزءاً جوهرياً من تطوير الحلول، ولديه القدرة على المساعدة في مواجهة أصعب التحديات والعقبات التي يواجهها العالم، كما بات عنصراً أساسياً في الحياة اليومية، ولكنه ينطوي على العديد من المخاطر والإخفاقات، مشددين على أهمية تعزيز ثقافة الثقة في المؤسسة أو المنظمة التي تعمل على بناء الأنظمة والتطبيقات وتغذيتها بالبيانات لإنشاء أنظمة آمنة ومسؤولة، مع التأكيد على تطبيق أخلاقيات البيانات، والتأكد من مدى جدوى الخطط الموضوعة لمواجهة إخفاقات الأنظمة الذكية، وقياس مدى فاعلية تقييم المخاطر والأدوات المستخدمة لكشف تحيز الأنظمة، مع أهمية تضمين مساءلة الذكاء الاصطناعي في المنظمات والمؤسسات.

جاء ذلك خلال «حوار تريندز الرابع» الذي دار حول «مستقبل الذكاء الاصطناعي المسؤول»، ونظمه مركز تريندز للبحوث والاستشارات، أمس الثلاثاء، في مقره بأبوظبي، استضاف خلاله الدكتور سعيد الظاهري مدير مركز الدراسات المستقبلية في جامعة دبي، وأدارت الحوار موزة المرزوقي الباحثة في «تريندز»، وجاء الحوار ضمن جهود «تريندز» لنشر العلم واستشراف المستقبل بالمعرفة.

مسؤوليات ومخاطر

واستهلت أعمال الجلسة الحوارية موزة المرزوقي بكلمة ترحيبية ألقتها نيابة عن الدكتور محمد عبدالله العلي، الرئيس التنفيذي للمركز، مؤكدة أن الذكاء الاصطناعي المسؤول يتم تصميمه واستخدامه لتمكين المؤسسات والمنظمات والشركات والموظفين من التأثير بشكل عادل ومسؤول على العملاء والمجتمعات، حيث خلق فرصاً وأوجد حلولاً مبتكرة وغير مسبوقة، ولكنه جلب أيضاً مسؤوليات كبيرة ومخاطر كثيرة.

وذكرت أن هناك العديد من التحديات التي يواجهها الذكاء الاصطناعي في استشراف المستقبل، حيث تنطوي نظم الذكاء الاصطناعي على إخفاقات ومخاطر تتطلب ضرورة التأكد من أخلاقيات الأنظمة الجديرة بالثقة، وبناء وتفعيل الذكاء الاصطناعي المسؤول والدقيق.

مراجعة الذكاء الاصطناعي

وأوضح الدكتور سعيد الظاهري أن الحكومات والدول والمنظمات والمؤسسات أصبحت مطالبة بضرورة إعادة النظر ومراجعة أنظمة وتطبيقات الذكاء الاصطناعي، لا سيما بعد أن أصبح الذكاء الاصطناعي جزءاً جوهرياً من تطوير الحلول ولديه القدرة على المساعدة في مواجهة بعض أصعب التحديات والعقبات التي يواجهها العالم، فيما يجلب في الوقت نفسه الكثير من المخاطر التي يجب معالجتها من أجل الحصول على الثقة اللازمة في هذه الأنظمة.

إزالة الحواجز

وذكر الدكتور الظاهري أن علم الخوارزميات أصبح يخدم تخصصات كثيرة، منها الصحة والتعليم والترفيه وغيرها، كما تقوم الخوارزميات بالترجمة، إذ نجحت في إزالة الحواجز بين اللغات والشعوب والثقافات، ودخلت أيضاً في المجالات الاقتصادية والإبداعية.

ونوّه بأن الذكاء الاصطناعي يمكن أن يشكل تهديدات كثيرة في حال استخدامه سلبياً، ولكنه لن يدمر العالم، بل إن عدم المسؤولية ورعونة الأشخاص هي التي ستدمر العالم؛ ما يجعل من بناء الثقة في أنظمة الذكاء الاصطناعي عاملاً محورياً ومهمّاً في إنشاء الأنظمة والتطبيقات الذكية، مستعرضاً بعض إخفاقات أنظمة الذكاء الاصطناعي، حيث شخّصت بعضها علاجات خاطئة لمرضى السرطان، كما كانت هناك إخفاقات عدة في أنظمة السيارات ذاتية القيادة، ووسائل التسوق الرقمي.

تخفيف المخاطر

وأوضح الدكتور الظاهري أن أنظمة الذكاء الاصطناعي سجلت 1200 إخفاق بحلول عام 2020، مبيناً أن 10% فقط من المنظمات والمؤسسات والشركات قد وضعت إجراءات لتخفيف مخاطر أنظمة الذكاء الاصطناعي، ولكن 1% فقط من هذه الإجراءات كانت فعالة ومجدية في مواجهة إخفاقات الخوارزميات، ما يجعل إعادة النظر في تقنيات الذكاء الاصطناعي ضرورة كي لا تفقد المجتمعات الثقة في الأنظمة الذكية.

وشدد على ضرورة التأكد من تطبيق تقنيات الذكاء الاصطناعي بمسؤولية، إلى جانب تطبيق مبادئ أخلاقية بشكل سليم وفعال، إضافة إلى دعم المواهب وتدريبها على أخلاقيات الذكاء الاصطناعي لضمان حيادية نتائج هذه الأنظمة والتطبيقات، مع أهمية ضمان عدم انحيازية هذه التقنيات، والتأكد من عدالة وشفافية الذكاء الاصطناعي، كما يجب امتلاك الأدوات لتحليل كيفية وصول هذه الأنظمة إلى اتخاذ القرار، لتدارك النتائج الخاطئة والسلبية؛ ما يضمن وجود أنظمة آمنة ومسؤولة تصون الخصوصية والأمن.

وأكد الدكتور سعيد الظاهري أن عدم دقة وموثوقية البيانات تجعل بناء أنظمة ذكاء اصطناعي مسؤول عملية مستحيلة، حيث يجب على أنظمة الذكاء الاصطناعي العمل على تحقيق رفاهية ومصلحة المجتمع، مع ضرورة مساءلة المنظمات المشغلة للأنظمة وإجراء تقييم دوري لأداء التطبيقات وصحة قراراتها، وتطوير الإرشادات وتحديث الإجراءات الرقابية على عمل أنظمة الذكاء الاصطناعي.

مستقبل الذكاء الاصطناعي

وأشار الدكتور سعيد الظاهري مدير مركز الدراسات المستقبلية في جامعة دبي، إلى أن مستقبل الذكاء الاصطناعي يحتاج إلى تطوير أدوات فعالة لاستشراف المستقبل، واتباع طرق ناجعة حيال استخدام البرمجيات، مع ضرورة وجود منهجية شاملة تركز على المجتمع وتؤكد أخلاقية ومسؤولية الأنظمة، متوقعاً صعود عمليات إنشاء البيانات المركبة والهجينة عبر علم الخوارزميات، حيث سيصل الاعتماد عليها إلى 60% بحلول العام 2024، في ظل الافتقار للبيانات المحدثة والكاملة وعالية الجودة.

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *