طائرة بدون طيار
Getty Images
يثير استخدام الطائرات بدون طيار إشكاليات اخلاقية

دعت مجموعة من العلماء إلى حظر تطوير أسلحة يتم التحكم بها بواسطة الذكاء الصناعي.

ويقول العلماء إن الأسلحة ذاتية العمل قد يصيبها عطب بطريقة غير متوقعة، فتقتل أبرياء.

ويقول المختصون في مجال "الأخلاق" إن منح إنسان آلي حرية القتل بدون أي تدخل بشري خطوة مبالغ بها من الناحية الأخلاقية.

وقد أدلى الخبراء بهذه المواقف خلال اجتماع الرابطة الأمريكية لتقدم العلوم في واشنطن.

وكانت منظمة هيومان رايتس ووتش لحقوق الإنسان واحدة من 89 منظمة غير حكومية من 50 بلدا ساهمت في تنظيم حملات تدعو إلى وقف إنتاج "الإنسان الآلي القاتل" والضغط من أجل إبرام معاهدة دولية بهذا الخصوص.

ومن بين الذين يقودون الحملة ميري وارينهام من هيومان رايتس ووتش.

وقالت وارينهام لبي بي سي: "نحن لا نتحدث عن إنسان آلي يمشي أو يتحدث على وشك السيطرة على العالم، لكن ما يقلقنا هو شيء وشيك الحدوث، أسلحة تقليدية ذاتية العمل، تتسلل إلى الاستعمال الفعلي. الطائرات بدون طيار مثال واضح على ذلك، لكن هناك طائرات مقاتلة بدون طيار تقلع، تنفذ مهمتها وتعود لقواعدها. هذا يمهد السبيل أمام الأسلحة التي تعمل ذاتيا".

وقد انضم رايان غاريبي كبير المسؤولين التقنيين في شركة كليرباث روبوتكس إلى الدعوة لحظر استخدام الإنسان الآلي في المجال العسكري.

وتتلقى شركته عقودا عسكرية، لكنها أدانت استخدام أنظمة الإنسان الآلي لاغراض عسكرية.

وقال غاريبي لبي بي سي "عندما تخطىء الأنظمة التي تعمل بالذكاء الاصطناعي لايمكن توقع كيفية تصرفها، قدرة الإنسان على التعرف على الهدف تتم عبر الصورة فقط ، لكن هذا لا يكفي لاتخاذ قرار مسؤول وتقدير الظروف المحيطة. المبرمج أو العالم الموجود على بعد آلاف الأميال هو من اتخذ القرار، لكنه ليس على دراية بالأوضاع الفعلية التي يتم استخدام السلاح فيها".

ويرى بيتر أزارو من جامعة نيو سكول في نيويورك أن سيناريو كالذي يخشى منه يثير إشكالية المسؤولية في حالة القتل غير القانوني، وقال "إن منح مسؤولية القتل لآلة فيه انتهاك لحقوق الإنسان، لأن الآلة لا تملك حسا أخلاقيا ولا تتحمل المسؤولية عن قراراتها المتعلقة بالحياة والموت، لذلك فمن صمموها سيكونون هم المسؤولون".