بقلم تيسير المثلوثي
ترجمة وتحرير مريم الحمد
في الوقت الذي اجتمع فيه قادة العالم وصناع السياسات والمبتكرون التكنولوجيون في قمة الذكاء الاصطناعي في باريس، فقد أغفلوا شيئاً مهماً من جدول أعمالهم، وهو الحوار حول آليات عسكرة الذكاء الاصطناعي.
لا شك بأن هذا الإغفال مثير للقلق بالنظر إلى الكشف الأخير عن تورط كل من مايكروسوفت وجوجل في تزويد الجيش الإسرائيلي بتكنولوجيا الذكاء الاصطناعي، الأمر الذي له آثار مثيرة للقلق على حقوق الإنسان والقانون الدولي.
لقد كشفت تقارير نشرها كل من موقع DropSite News ومجلة +972 وThe Guardian، بأن منصة Microsoft Azure قد تم استخدامها من قبل وحدات المخابرات الإسرائيلية لتشغيل أنظمة المراقبة، مما ساهم في انتهاكات ممنهجة لحقوق الإنسان الفلسطيني.
لقد سلطت الاكتشافات الأخيرة الضوء أيضاً على تورط جوجل وانغماسها في توفير أدوات الذكاء الاصطناعي المتقدمة للجيش الإسرائيلي كجزء من مشروع نيمبوس بقيمة 1.2 مليار دولار.
تم تطوير العديد من الأدوات المستخدمة في غزة، مثل أنظمة تحديد الهوية البيومترية، والتي يستمر استخدامها في جميع أنحاء العالم “لأغراض أمنية”
من ناحية أخرى، فقد وردت تقارير عن قيام جوجل بنشر منصة أطلقت عليها ،Vertex AI، وذلك خلال الهجوم على غزة في أكتوبر عام 2023، بهدف معالجة مجموعات بيانات ضخمة من أجل “التنبؤات” حيث تقوم الخوارزميات بتحليل الأنماط السلوكية والبيانات الوصفية لتحديد التهديدات المحتملة.
ماذا عن الأنظمة العسكرية الإسرائيلية مثل لافندر و جوسبل و”أين أبي؟”، لقد لعبت هذه الأنظمة أيضاً دوراً مركزياً في حرب غزة، فقد حددت قاعدة بيانات لافندر، وهي قاعدة بيانات مدعومة بالذكاء الاصطناعي، أكثر من 37000 شخص كأهداف محتملة للاغتيالات خلال الأسابيع الأولى من الحرب، وبما لا يقل عن 20 ثانية لمراجعة كل حالة.
أما نظام “أين أبي؟” فهو يتتبع الأفراد عبر هواتفهم الذكية، الأمر الذي أتاح تنفيذ ضربات جوية دقيقة استهدفت في كثير من الأحيان عائلات بأكملها.
توضح مثل هذه الأدوات كيف يتم استخدام الذكاء الاصطناعي كسلاح ضد السكان المدنيين، الأمر الذي يثير مخاوف حول معايير المساءلة والمحاسبة لها في ظل القانون الإنساني الدولي!
تهميش للأصوات الفاعلة
يبدو أن قمة باريس للذكاء الاصطناعي، والتي تم تنظيمها تحت شعار الإبداع الأخلاقي في مجال الذكاء الاصطناعي، منفصلة عن الحقائق المتعلقة بكيفية استخدام تقنيات الذكاء الاصطناعي كسلاح!
لقد كافحت مجموعات المجتمع المدني، وخاصة تلك الموجودة في الجنوب العالمي، للوصول إلى هذا الحدث ولكن كان هناك عوائق منها القيود المالية وعدم الوضوح بشأن كيفية تأمين الدعوة.
من جهتها، فقد أفادت العديد من المنظمات، بما في ذلك منظمتي، بأنه لم يتم إبلاغها بالحدث أو بمعايير المشاركة، كما أن التكاليف المرتفعة لحضور القمة باهظة بالنسبة للعديد من المنظمات غير الحكومية، وخاصة تلك العاملة في الجنوب العالمي.
وبطبيعة الحال، تصبح النتيجة حصول المزيد من التهميش للأصوات التي يمكن أن تسلط الضوء على التكاليف البشرية المدمرة للذكاء الاصطناعي العسكري.
لقد تم بالفعل إقصاء الجهات الفاعلة الرئيسية، وخاصة أولئك الذين يعملون بشكل مباشر مع المجتمعات المتأثرة بالحروب المدعومة بالذكاء الاصطناعي، كما جاء في بيان وقعته أكثر من 100 منظمة من منظمات المجتمع المدني، والذي يدعو إلى وضع حقوق الإنسان في قلب تنظيم الذكاء الاصطناعي.
ويؤدي مثل هذا الاستبعاد إلى تقويض المهمة المعلنة للقمة والمتمثلة في ضمان استفادة جميع السكان من الذكاء الاصطناعي، فمنظمو القمة لم يكلفوا أنفسهم حتى بالرد على رسائل البريد الإلكتروني التي أرسلناها لدعم الحصول على التأشيرة أو الحصول على دعوة رسمية.
وتلعب مجموعات المجتمع المدني دوراً حاسماً في تحدي عسكرة الذكاء الاصطناعي والدعوة إلى اتباع الأطر القانونية الدولية التي تعطي الأولوية لحقوق الإنسان، ولذلك فإن غياب أصواتهم يشير إلى أن القمة تخاطر بتعزيز وجهة نظر ضيقة من أعلى إلى أسفل لتطوير الذكاء الاصطناعي وتتجاهل التكاليف البشرية المحتملة.
إن عسكرة الذكاء الاصطناعي ليست قضية بعيدة تقتصر على مناطق الصراع، فقد تم تطوير العديد من الأدوات المستخدمة في غزة، مثل أنظمة تحديد الهوية البيومترية، والتي يستمر استخدامها في جميع أنحاء العالم “لأغراض أمنية”.
ينبغي لقمم الذكاء الاصطناعي في المستقبل أن تعمل على خلق مساحات مخصصة للحوار النقدي، والانتقال إلى ما هو أبعد من الإبداع التكنولوجي لدراسة العواقب الأخلاقية العميقة التي قد يخلفها الذكاء الاصطناعي في الحروب
هناك مخاوف أخرى أيضاً حول كيفية استخدام تقنيات الذكاء الاصطناعي، مثل أنظمة التعرف على الوجه والمراقبة بشكل غير متناسب لاستهداف الفئات الضعيفة، مما ينتهك الخصوصية ويؤدي إلى تفاقم التحيزات القائمة أصلاً، مما يزيد من تهميش الأفراد المعرضين للخطر بالفعل.
الحريات المدنية
من جانب آخر، فقد سلطت مبادرة “استكشاف أوروبا” الضوء على احتمال أن ينتهك قانون الذكاء الاصطناعي الجديد الصادر عن الاتحاد الأوروبي الحريات المدنية وحقوق الإنسان، وذلك بعد أن ضغطت بعض الحكومات من أجل الحصول على استثناءات من شأنها أن تسمح بمراقبة الذكاء الاصطناعي من قبل الشرطة وسلطات الحدود، الأمر الذي يشكل خطراً على مجموعات مثل المهاجرين وطالبي اللجوء.
كل هذا يمكن أن يؤدي إلى تفاقم التحيزات والممارسات التمييزية القائمة، بما فيها الشرطة التنبؤية واستخدام أنظمة القياسات الحيوية للمراقبة في الوقت الحقيقي في الأماكن العامة، حيث تدق مثل هذه الممارسات ناقوس الخطر حول تآكل أكبر للخصوصية والحقوق وخاصة للفئات المهمشة.
في الوقت الذي تتسابق فيه أوروبا للتنافس مع الاستثمارات الأمريكية في البنية التحتية للذكاء الاصطناعي، يجب عليها إعطاء الأولوية للمبادئ التوجيهية الأخلاقية لضبط الابتكار غير الخاضع للرقابة، فتجاهل مثل هذه المخاوف ينذر بخطر تطبيع التقنيات التي تقلل من الرقابة البشرية وربما تنتهك القانون الإنساني الدولي.
لمواجهة هذه التحديات الحاسمة، من الضروري اتباع نهج شامل ومتعدد المصالح، كما يجب على صناع السياسات إعطاء الأولوية لدمج المناقشات حول الذكاء الاصطناعي العسكري في أجندات الحوكمة العالمية، وضمان المشاركة الهادفة من قبل مجموعات المجتمع المدني، خاصة تلك التي تمثل دول الجنوب العالمي.
نحن بحاجة إلى معايير دولية ملزمة لمنع شركات التكنولوجيا من تمكين انتهاكات حقوق الإنسان من خلال العقود العسكرية، حيث تصبح الشفافية مبدأ أساسياً يستلزم الإفصاح الإلزامي من قبل الشركات المنخرطة في شراكات عسكرية.
علاوة على ذلك، ينبغي لقمم الذكاء الاصطناعي في المستقبل أن تعمل على خلق مساحات مخصصة للحوار النقدي، والانتقال إلى ما هو أبعد من الإبداع التكنولوجي لدراسة العواقب الأخلاقية العميقة التي قد يخلفها الذكاء الاصطناعي في الحروب.
كثيراً ما تصور فرنسا نفسها على أنها أرض لحقوق الإنسان، وإن كانت تريد تعزيز تلك الفكرة حقاً، فيجب عليها أن تلعب دوراً رائداً في تنظيم تقنيات الذكاء الاصطناعي، وضمان استخدامها بشكل مسؤول وليس كأدوات للقمع.
للاطلاع على النص الأصلي من (هنا)