بدخول الذكاء الاصطناعي "الخدمة" العسكرية.. القتل أصبح أكثر سهولة
أوقفوا الروبوتات القاتلة
جوهانسبرغ (جنوب أفريقيا)- أثار صعود الذكاء الاصطناعي العالمي مخاوف بشأن تأثيره على حقوق الإنسان، خاصة في ما يتعلق بالمجموعات المهمشة. وتشمل استخداماته المثيرة للجدل عمليات الشرطة والمراقبة المحلية و”قوائم القتل” التي تعتمدها إسرائيل لتحديد أهداف الضربات الصاروخية.
المخاطر والإجراءات التي يجب اتباعها شكلت محور نقاش أجراه تحالف سيفيكوس الدولي مع صوفيا غودفريند، زميلة ما بعد الدكتوراه في مبادرة الشرق الأوسط بجامعة هارفارد.
بسؤال غودفريند إن كان هناك داع للقلق بشأن الذكاء الاصطناعي واستخداماته الحالية والمحتملة، أجابت: العالم يشهد دمج الذكاء الاصطناعي بسرعة في العمليات العسكرية، خاصة في أنظمة الأسلحة وجمع المعلومات الاستخباراتية وصنع القرار. وتقلل استقلالية هذه الآليات المتزايدة من الرقابة البشرية، وهو ما يثير مخاوف من اتخاذ الآلات قرارات الحياة والموت دون تدخل بشري فاصل.
◄ الاتحاد الأوروبي اتخذ إجراءات، حيث حظر بعض تطبيقات الذكاء الاصطناعي العسكرية كأنظمة "الرصيد الاجتماعي" التي تمنح الأشخاص تقييمات بناء على سلوكهم الاجتماعي
لقد أصبحت التقنيات القائمة على الذكاء الاصطناعي مثل الطائرات المسيرة والأسلحة الآلية، وأنظمة الاستهداف المتقدمة اليوم جزء من الترسانات العسكرية. ويثير اعتماد الجيش المتزايد على هذه الأنظمة مخاوف كبيرة، حيث تبقى غير منظمة بموجب القانون الدولي.
ويتجاوز تطور التقنيات السريع ونشرها الواسع سبل التنظيم. ويبقي الجمهور غير مدرك لتبعاتها. ويعني غياب الرقابة إمكانية إساءة استخدام الذكاء الاصطناعي بطرق تسبب ضررا واسعة النطاق وتكون بمنأى عن المساءلة.
كما يمكن أن تخلف البيانات الخاطئة أو المتحيزة أخطاء مدمرة. وتثير هذه النقطة أسئلة أخلاقية وقانونية خطيرة. وأعطت غودفريند مثالا على ذلك بما يحدث اليوم في الشرق الأوسط، حيث يستخدم الجيش الإسرائيلي أنظمة استهداف بمساعدة الذكاء الاصطناعي لتحديد أهداف في غزة وضربها. وتحلل هذه الأنظمة كميات هائلة من البيانات التي تجمعها خلال الطائرات دون طيار والأقمار الصناعية وكاميرات المراقبة ووسائل التواصل الاجتماعي إضافة إلى اختراقات الهواتف لتحديد الأهداف المحتملة وموقعها ومكان وزمان قتل المعنيين.
وتثير “قوائم القتل” التي صاغها الذكاء الاصطناعي مخاوف جدية. ويُذكر أن البيانات المعيبة أو المتحيزة تسببت في ارتكاب أخطاء مدمرة بالفعل، حيث قُتل الصحافيون والعاملون في المجال الإنساني نتيجة لهذه الضربات. كما وردت مزاعم بأن الجيش وسّع تعريفه الذي يحدد ما يشكل هدفا مشروعا. ويُخوّل هذا شن هجمات على أشخاص أو أماكن قد لا تفي بالمعايير التي يحددها القانون الدولي.
وتنشط هذه الأنظمة بسرعة ونطاق غير مسبوقين، محددة عددا كبيرا من الأهداف. وتتمتع بالقدرة على إحداث دمار واسع النطاق دون إشراف شامل. وتضع أمام الجنود الإسرائيليين في غزة أقل من 20 ثانية للموافقة على أهداف تشمل مقاتلي حماس، وأشخاص لا يعتبرون أهدافا عسكرية مشروعة.
صوفيا غودفريند: قرارات الحياة والموت تتخذ دون تدخل بشري
وتتسبب عن الضرر الناتج مسؤوليات أخلاقية، وقالت غودفريند: إن تقنيات الاستهداف بمساعدة الذكاء الاصطناعي مثل “نظام لافندر” مستقلة تماما. وتبقى بحاجة إلى إشراف بشري. وتعدّ هذه النقطة حرجة لأن هذه التقنيات تصبح مدمرة بقدر الأشخاص المسؤولين عنها. ويتوقف كل شيء هنا على القرارات التي يتخذها القادة العسكريون.
وفي الوقت نفسه، يمكن أن يجرد استخدام الآلات العنف من معالمه، مما يسهّل سماح الأفراد العسكريين بالمزيد من التدمير. ويخلق منح مهمة صنع القرار إلى الذكاء الاصطناعي، خطر التخلي عن المسؤولية الأخلاقية. ويجعل هذا النهج التكنولوجي العمل العسكري يبدو أكثر كفاءة وعقلانية، مما قد يساعد في تبرير كل قصف بحجة تبدو منطقية، مع تجريد فظائع الخسائر المدنية والدمار واسع النطاق الذي يتبع الأمر.
وبسؤالها فيما إذا كانت أطر حوكمة الذكاء الاصطناعي الحالية كافية لحماية حقوق الإنسان ردت غودفريند: إجابتي المختصرة هي لا. تقصّر أطر حوكمة الذكاء الاصطناعي الحالية في حماية حقوق الإنسان، خاصة في التطبيقات العسكرية. وبينما تتفق جل الدول على وجوب إخضاع الأسلحة التي تعتمد الذكاء الاصطناعي (من الأسلحة المستقلة بالكامل إلى الأسلحة المدعومة الذكاء الاصطناعي) للقانون الحقوقي الدولي، ولا يوجد إطار عالمي يضمن ذلك.
هناك دعوات لوضع قواعد تكون أكثر شمولا وقابلية للتنفيذ، وشهدنا بعض الخطوات الإيجابية. وأذكر هنا على سبيل المثال أن مجموعات من المجتمع المدني والباحثين نجحت في الضغط لفرض حظر على الأسلحة الذاتية في “اتفاقية الأمم المتحدة بشأن أسلحة تقليدية معينة” التي دعمتها أكثر من 100 دولة. ودعا الأمين العام للأمم المتحدة إلى اعتماد معاهدة ملزمة قانونا في عام 2026 لحظر الأسلحة التي يدعمها الذكاء الاصطناعي دون أي إشراف بشري على عملياتها.
كما اتخذ الاتحاد الأوروبي إجراءات، حيث حظر بعض تطبيقات الذكاء الاصطناعي العسكرية كأنظمة “الرصيد الاجتماعي” التي تمنح الأشخاص تقييمات بناء على سلوكهم الاجتماعي.
ولعبت منظمات مثل معهد مستقبل الحياة وهيومن رايتس ووتش ومنظمة أوقفوا الروبوتات القاتلة دورا أساسيا في الضغط نحو التغيير. لكنها تواجه تحديات متزايدة حيث يضغط رؤساء الشركات التكنولوجية التنفيذيون في وادي السيليكون وأصحاب رؤوس الأموال للتطوير الأسرع لبرامج الذكاء الاصطناعي مع عدد أقل من اللوائح. وهذا ما يثير القلق، حيث ستتمتع هذه الشخصيات القوية الآن بتأثير أكبر على سياسة الذكاء الاصطناعي في ظل إدارة ترامب الجديدة.
◄ غياب الرقابة يعني إمكانية إساءة استخدام الذكاء الاصطناعي بطرق تسبب ضررا واسعة النطاق وتكون بمنأى عن المساءلة
واعتبرت غودفريند أن دور الشركات مهم هنا، يمكنها أن تلعب دورا حاسما. وشهدنا خلال السنوات الأخيرة إدلاء العديد من الشركات الرائدة، مثل أمازون وغوغل ومايكروسوفت وأوبن إيه آي، بتصريحات علنية حول التزامها بحقوق الإنسان. ودعت أوبن إيه آي إلى إنشاء هيئة رقابة مماثلة للوكالة الدولية للطاقة الذرية، وتعهد مؤسسوها بعدم السماح باستخدام تقنيتهم لأغراض عسكرية. ووضعت أمازون وغوغل ومايكروسوفت سياسات الاستخدام العادل، وتقول إنها تضمن استخدام تقنياتها وفقا لمبادئ حقوق الإنسان.
لكن هذه السياسات غالبا ما تكون قاصرة من الناحية العملية، خاصة في التطبيقات العسكرية. وباعت العديد من هذه الشركات تقنياتها للقوات العسكرية رغم تصريحاتها المذكورة. وغالبا ما يكون مدى مشاركتها في تطوير الذكاء الاصطناعي العسكري غامضا. وأبلغ موقع “ذا إنترسبت” قبل بضعة أسابيع عن شراء القيادة العسكرية الأميركية في أفريقيا لبرنامج من أوبن إيه آي عبر مايكروسوفت. كما نعلم أن الجيش الإسرائيلي اعتمد خدمات غوغل السحابية لتوجيه القنابل في غزة وخدمات أمازون الإلكترونية لتخزين بيانات المراقبة السرية عن المدنيين في الأراضي الفلسطينية.
وأثار هذا احتجاجات داخل الشركات المعنية، حيث أضرب العمال وطالبوا بالمزيد من الشفافية والمساءلة.
وابتعد العديد من رؤساء شركات التكنولوجيا التنفيذيين، مثل إيلون ماسك، عن التزامهم السابق بحقوق الإنسان. وأصبحوا أكثر توافقا مع القادة السياسيين اليمينيين مثل الرئيس المنتخب دونالد ترامب. ويجادل بعض الرؤساء التنفيذيين، مثل بيتر ثيل من بايبال وأليكس كارب من بالانتير تكنولوجي، بأن على الشركات الخاصة العمل عن كثب مع الجيش للحفاظ على تفوق الولايات المتحدة التكنولوجي. ويُبرز هذا الحاجة إلى أطر تنظيمية أقوى لمحاسبة هذه الشركات ومنع استخدام الذكاء الاصطناعي بطرق تقوض حقوق الإنسان.