محرر الأقباط متحدون
 إن الاستخدام المضطرد لتقنيات الذكاء الاصطناعي في المجال العسكري بات يحد من إمكانيات تمييز الإنسان، هذا التمييز الذي يحمل قيمة خلقية أدبية، خلافاً للآلة. عن هذا الموضوع قال السيد فينياركا إنه خلال السنوات الماضية، ومع تطور استخدام الطائرات المسيّرة اتُخذت خطوات بدلت طريقة خوض الحروب، موضحا أن هذه التكنولوجيات لا تُستخدم في المجال الجوي وحسب إنما أيضا في المجالين البري والبحري، وما تزال هذه الآلات خاضعة للتحكّم البشري ولو عن بُعد. لكنه أشار إلى أن تطوير منظومات ما يُعرف بالأسلحة الفتاكة المستقلة يقود إلى تخلٍ كامل عن العنصر البشري في خوض الحروب، مع أن العالم لم يصل بعد إلى تصنيع رجال آليين أو روبوتات قادرين على القتل.

هذا وشاء المسؤول الإيطالي أن يذكّر بموقف الكرسي الرسولي حيال هذه المسألة، لاسيما وأنه تترتب عليها تبعات خلقية، خصوصا وأن البابا فرنسيس قال في حزيران يونيو ٢٠٢٤ في الكلمة التي وجهها إلى قادة مجموعة دول السبع المجتمعين في بوليا بإيطاليا إنه لا يجوز أبدا أن تقرر آلة ما أن تقتل كائناً بشريا. كما أن البابا الحالي لاون الرابع عشر متنبه جداً لهذه المخاطر، وقد عبر عن موقف البابا هذا مراقب الكرسي الرسولي الدائم لدى الأمم المتحدة في نيويورك رئيس الأساقفة غابريلي كاتشا عندما أكد أن تطبيق الذكاء الاصطناعي في المجال العسكري يقود إلى مستوى من انعدام الثقة لا سابق له، ويطرح في الوقت نفسه تحدياً خطيراً ينبغي أن يوقظ الوعي الخلقي للجماعة الدولية برمتها إذ إن الأسلحة التي يتم تطويرها يمكن أن تُشغل بمعزل عن أي تحكّم بشري، وتتخطي بالتالي كل حدود قانونية، أمنية، إنسانية وخلقية.

كما أن هذا التطور التكنولوجي يقلص فترة اتخاذ القرارات، ويحد من الرقابة البشرية، ما يرفع من خطر ارتكاب الأخطاء. ومن يدفعون الثمن هم غالباً الضحايا المدنيون، الذين يُعتبرون من "الآثار الجانبية" للصراعات المسلحة، بعيداً عن أي حماية يضمنها القانون الإنساني الدولي. من هذا المنطلق رفع الكرسي الرسولي صوته في أكثر من مناسبة ليطالب بوضع أطر قانونية تنظم استخدام هذه التكنولوجيات، وتمنع استخدام الأسلحة الفتاكة المستقلة. وقد كان مراقب الكرسي الرسولي الدائم لدى الوكالات الأممية والمنظمات الدولية في جنيف رئيس الأساقفة إيتوريه باليستريرو قد صرح بأن الأسلحة المستقلة لا يمكن أن تُحمّل أي مسؤولية خلقية، خلافاً للكائن البشري الذي يملك عقلاً وقدرة فريدة على التمييز الخلقي وعلى اتخاذ قرارات خلقية تعجز الخوارزميات عن اتخاذها مهما كانت متطورة.

عن هذا الموضوع حدثنا أيضا رئيس المنظمة المعروفة باسم "أرشيف نزع السلاح" فابريسيو باتيستيلي الذي ذكّر بأن الأمم المتحدة ستصوت هذا العام على قرار يعبر عن قلقها حيال استخدام الذكاء الاصطناعي في المجال العسكري ويطالب بوضع الأطر القانونية الملائمة. ومع ذلك عبر عن قناعته بأن الدول الأعضاء ما تزال بعيدة وللأسف عن بلوغ اتفاق بهذا الشأن، مشيرا إلى أن بعض البلدان تعارض وضع أطر جديدة باعتبار أن القانون الإنساني الدولي يتطرق إلى هذه المسائل، فيما ترى بلدان أخرى أن هذا القانون الذي وُضع في أعقاب الحرب العالمية الثانية يحتاج اليوم إلى التحديث كي يواكب العصر والتطورات التكنولوجية التي نشهدها اليوم. وختم باتيستيلي حديثه لموقعنا متسائلاً: من يتحمل المسؤولية في حال شن الذكاء الاصطناعي ضربة عسكرية أو في حال اتخذ القرار بشنها؟