هل نثق كثيرًا في الذكاء الاصطناعي؟ دراسة جديدة تدعو إلى مساءلة الذكاء الاصطناعي

Mar 1, 2025 - 11:29
هل نثق كثيرًا في الذكاء الاصطناعي؟ دراسة جديدة تدعو إلى مساءلة الذكاء الاصطناعي

كتبت: أمنية شكري

 

هل نثق في التكنولوجيا التي لا نفهمها تمامًا؟

تُظهر دراسة جديدة من جامعة ساري أن أنظمة الذكاء الاصطناعي بدأت تتخذ قرارات تؤثر على حياتنا اليومية في مجالات حساسة مثل البنوك، الرعاية الصحية، و التحقيقات الجنائية. وتدعو الدراسة إلى إجراء تغييرات فورية في طريقة تصميم نماذج الذكاء الاصطناعي وتقييمها، مع التأكيد على ضرورة أن تتمتع هذه الخوارزميات بالشفافية والموثوقية.

التحديات المرتبطة بنماذج "الصندوق الأسود" في الذكاء الاصطناعي

مع تكامل الذكاء الاصطناعي في مجالات عالية المخاطر، حيث يمكن أن تؤثر القرارات على حياة الناس، تصبح المخاطر المرتبطة بنماذج "الصندوق الأسود" أكبر من أي وقت مضى. تكشف الدراسة أن أنظمة الذكاء الاصطناعي يجب أن توفر تفسيرات وافية لقراراتها حتى يثق المستخدمون بها ويفهمونها، بدلاً من أن يشعروا بالارتباك والضعف. نظرًا للأضرار المحتملة مثل التشخيصات الطبية الخاطئة وتنبيهات الاحتيال الخاطئة في مجال الخدمات المصرفية، فإن المخاطر تكون هائلة.

أمثلة على فشل الذكاء الاصطناعي في تقديم تفسيرات واضحة

قدمت جامعة ساري أمثلة صادمة على فشل أنظمة الذكاء الاصطناعي في شرح قراراتها بالكامل، مما جعل المستخدمين في حيرة وعرضتهم للخطر. إحدى هذه الأمثلة تتعلق بمجموعات بيانات الاحتيال التي تكون غير متوازنة، حيث أن 0.01% فقط من المعاملات هي احتيالية، مما يؤدي إلى خسائر فادحة. وعلى الرغم من أن خوارزميات الذكاء الاصطناعي يمكنها اكتشاف الاحتيال بدقة عالية، إلا أنها تفتقر إلى القدرة على تفسير السبب وراء كون المعاملة احتيالية.

الدعوة إلى تطوير الذكاء الاصطناعي القابل للتفسير

قال الدكتور وولفغانغ غارن، المؤلف المشارك للدراسة وأستاذ التحليل المتقدم في جامعة ساري: "لا يمكننا أن ننسى أنه وراء كل حل خوارزمي يوجد أشخاص حقيقيون تتأثر حياتهم بهذه القرارات. هدفنا هو إنشاء أنظمة ذكاء اصطناعي ليست ذكية فقط، بل تقدم تفسيرات يمكن للناس (مستخدمي التكنولوجيا) أن يثقوا بها ويفهموها".

إطار عمل SAGE لضمان الشفافية

اقترحت الدراسة إطار عمل شامل يسمى SAGE (الإعداد، الجمهور، الهدف، والأخلاق) لمعالجة هذه القضايا الرئيسية. يهدف SAGE إلى ضمان أن تكون تفسيرات الذكاء الاصطناعي ليست فقط مفهومة، بل ذات صلة بالجمهور النهائي. كما يعزز الإطار من أهمية الوعي بالسياقات المحددة لمستخدمي هذه الأنظمة، مما يساعد على سد الفجوة بين عمليات اتخاذ القرارات المعقدة في الذكاء الاصطناعي والمشغلين البشريين الذين يعتمدون عليها.

التصميم المعتمد على المشاهد (SBD)

بالإضافة إلى إطارSAGE، استخدمت الدراسة تقنية التصميم المعتمد على المشاهد (SBD) التي تركز على المشاهد الواقعية لتحديد التفسيرات التي يحتاجها المستخدمون من أنظمة الذكاء الاصطناعي. هذا النهج يشجع الباحثين والمطورين على وضع أنفسهم في مكان المستخدم النهائي لضمان أن تتمتع الأنظمة بالتعاطف والفهم في جوهرها.

أهمية التركيز على تفسيرات مفهومة وقابلة للتنفيذ

أضاف الدكتور وولفغانغ غارن: "نحن بحاجة أيضًا إلى تسليط الضوء على أوجه القصور في نماذج الذكاء الاصطناعي الحالية، التي غالبًا ما تفتقر إلى الوعي السياقي اللازم لتوفير تفسيرات ذات مغزى. من خلال تحديد هذه الفجوات ومعالجتها، يدعو بحثنا إلى تطور في تطوير الذكاء الاصطناعي مع إعطاء الأولوية لمبادئ التصميم التي تركز على المستخدم".

خلاصة الدراسة وأهمية تغيير النماذج

أكدت الدراسة على أهمية أن تقدم أنظمة الذكاء الاصطناعي تفسيرات لقراراتها، سواء كانت نصية أو رسومية، لتلبية احتياجات الفهم المختلفة للمستخدمين. يهدف هذا التحول إلى ضمان أن تكون التفسيرات ليست فقط في متناول الجميع ولكن أيضًا قابلة للتنفيذ، مما يتيح للمستخدمين اتخاذ قرارات مستنيرة بناءً على رؤى الذكاء الاصطناعي.