700 خطر للذكاء الاصطناعي
(العربية)-09/09/2024
*د. خالد رمضان
قبل أيام، أصدر معهد ماساتشوستس للتكنولوجيا، أول قاعدة بيانات عالمية حول مخاطر الذكاء الاصطناعي، والتي سلطت الضوء بشكل مكثف على 700 خطر مرتبط بالذكاء الاصطناعي، بدءًا من الأعطال الفنية ومروراً بنقاط ضعف الأمن السيبراني وانتهاءً بالمخاوف الأخلاقية والتأثيرات الاجتماعية، والواقع، أن هناك أهمية بالغة في الوقت الحالي، لفهرسة مشكلات التقنيات الفائقة، خاصة لدى صناع السياسات والباحثين والمطورين ومحترفي تكنولوجيا المعلومات في جميع أنحاء العالم، لأن مثل هذه الفهرسة العلمية تزيل الغموض حول المخاطر والتأثيرات المجتمعية والأخلاقية المرتبطة بتكنولوجيا المستقبل.
من الواضح، أن الغرض الأساسي من مستودع الذكاء الاصطناعي، هو تقديم منصة مركزية سهلة الوصول لمساعدة المستخدمين النهائيين على فهم المخاطر المختلفة المرتبطة بالذكاء الاصطناعي، وسيكون هذا المستودع بمثابة دليل عملي ومورد تعليمي لتحديد هذه الإشكاليات والتخفيف منها، وهذا الأمر يبدو مهماً للغاية مع تزايد تعقيد هذه الأنظمة، ولعبها أدوارًا بالغة الخطورة في البنية التحتية الحيوية، بما في ذلك الرعاية الصحية، والتمويل، والأمن القومي، وقد تم تصميم هذا المستودع ليكون مفتوحًا ومتطورًا باستمرار، حيث يتم تشجيع مشاركة أصحاب المصلحة، مثل خبراء الصناعة والباحثين والهيئات الحكومية، وسيضمن هذا الأمر تزويد المستودع بأحدث التطورات والرؤى الاستراتيجية.
يكتسب تطوير مستودع مخاطر الذكاء الاصطناعي زخمًا كبيراً، حيث يحظي المشروع بدعم شركات التكنولوجيا الكبرى والوكالات الحكومية والمنظمات غير الربحية، ومن بين الرعاة الرئيسيين مايكروسوفت، وجوجل، والمؤسسة الوطنية للعلوم، وبالنسبة لمحترفي تكنولوجيا المعلومات، فإن المستودع عبارة عن كنز من الأفكار التي تساعد في تحسين إدارة المخاطر وعمليات اتخاذ القرار، وهذه المخاطر تصنف إلى 23 مجالاً فرعياً مثل الخصوصية والأمن، والجهات الخبيثة وإساءة الاستخدام، والأضرار الاجتماعية والاقتصادية والبيئية، والتفاعل بين الإنسان والحاسوب، وسلامة أنظمة الذكاء الاصطناعي، والفشل والقيود، وضعف أمن النظام، والتعرض لمحتوى سام، والمعلومات الكاذبة أو المضللة، وانخفاض فرص العمل، وفقدان الوكالة البشرية، والافتقار إلى الشفافية.
تتيح قاعدة البيانات توقع التحديات المحتملة بشكل أفضل وتنفيذ استراتيجيات أكثر قوة أمن وسلامة الذكاء الاصطناعي، وباعتقادي، فإن مستودع مخاطر الذكاء الاصطناعي، يمثل خطوة كبيرة للأمام في إدارة وفهم هذه المخاطر بشكل جماعي، حيث يوفر موردًا هائلاً في تشكيل مستقبل الذكاء الاصطناعي بأمان ومسؤولية وأخلاقية، وقد تصبح هذه القاعدة لا غنى عنها مع ترسيخ أقدام الذكاء الاصطناعي في كل جانب من جوانب الحياة الحديثة، ومن المرجح أن يصبح هذا المشروع الطموح موردًا أساسياً لمحترفي تكنولوجيا المعلومات والمشرعين والباحثين في إدارة المستقبل الآمن والمستنير للذكاء الاصطناعي.