انطلقت في العاصمة الفرنسية باريس، يوم الثلاثاء، نقاشات معمقة حول آليات حماية القدرة البشرية على اتخاذ القرارات في عصر الذكاء الاصطناعي، وذلك خلال مؤتمر دولي نظمه مركز الأبحاث الاستراتيجية بالتعاون مع منظمة التعاون الاقتصادي والتنمية.
وجمع المؤتمر، الذي يستمر على مدى ثلاثة أيام، نخبة من خبراء التقنية وعلماء الاجتماع وقضاة ومشرعين من أكثر من 40 دولة، لمناقشة المخاطر التي تهدد استقلالية الإنسان في ظل الاعتماد المتزايد على الأنظمة الذكية.
وأكد المشاركون في الجلسة الافتتاحية أن الذكاء الاصطناعي لم يعد مجرد أداة مساعدة، بل تحول إلى قوة تحدد مسارات المعرفة والقانون والسلطة في العديد من المجالات الحيوية.
وأشارت مديرة المركز، الدكتورة سارة المنصوري، إلى أن "الإشكالية الأساسية لا تكمن في التكنولوجيا بحد ذاتها، بل في ميل المؤسسات إلى تفويض الحكم البشري للخوارزميات دون مراجعة نقدية أو رقابة أخلاقية".
واستعرض المؤتمرون حالات عملية من قطاعات الصحة والقضاء والخدمات المصرفية، حيث أظهرت أنظمة الذكاء الاصطناعي تحيزات بنيوية ضد فئات معينة، مما أدى إلى قرارات غير عادلة.
وفي هذا السياق، قدم الباحث في مجال الأخلاقيات الرقمية، البروفيسور جون كلود دوبوا، دراسة توثق 120 حالة من القرارات الخاطئة التي اتخذتها أنظمة ذكاء اصطناعي في المحاكم الأوروبية خلال السنوات الخمس الماضية.
وأوصى المشاركون بضرورة وضع إطار قانوني دولي ملزم، يضمن بقاء القرارات النهائية بيد البشر، مع إلزام المطورين بتقديم شروحات واضحة لكيفية عمل الخوارزميات.
كما طالبوا بتطوير برامج تدريب إلزامية للقضاة والمسؤولين العموميين حول كيفية التعامل مع مخرجات الذكاء الاصطناعي والتحقق من صحتها قبل اعتمادها.
ومن المقرر أن ترفع توصيات المؤتمر إلى الجمعية العامة للأمم المتحدة في دورتها المقبلة، للنظر في إمكانية صياغة معاهدة دولية تنظم استخدام الخوارزميات في القطاعات الحساسة.
ويأتي هذا المؤتمر في وقت تتسارع فيه دول العالم، خاصة في المنطقة العربية، نحو تبني أنظمة الذكاء الاصطناعي في مجالات التعليم والتوظيف والخدمات الحكومية، مما يثير مخاوف جدية حول حقوق الإنسان والشفافية.
التعليقات (0)
اترك تعليقك