قراؤنا من مستخدمي إنستجرام
يمكنكم الآن متابعة آخر الأخبار مجاناً من خلال حسابنا على إنستجرام
إضغط هنا للإشتراك

ماذا يمكن أن يحدث لو حلت الروبوتات محل الجنود في ميادين المعارك؟ وماذا يمكن أن يحدث لو أصاب هذه الآلات الذكية خلل اثناء ذلك، وأصبحت لا تفرق بين صديق وعدو. هذه وأمور أخرى حذر منها حوالى الف عالم وخبير سلاح في العالم.&


حذر علماء وخبراء اسلحة من نتائج خطيرة جدًا ستنتج عن استخدام روبوتات في ميادين المعركة قد تجول وتصول لتقتل الناس حسب مشيئتها.&
&
وجّه هؤلاء تحذيرهم الى المنتدى الاقتصادي العالمي الذي انعقد في منتجع دافوس السويسري بين 19-23 من كانون الثاني (يناير) الجاري بحضور 2500 من قادة العالم في مجال السياسة والاقتصاد والأعمال والعلوم والمجتمع المدني.&
&
فات الآوان؟&
&
وقالت انجيلا كين، الممثلة السامية للامم المتحدة لشؤون نزع السلاح بين 2012-2015 ، إن العالم كان بطيئًا في اتخاذ اجراءات استباقية لحماية البشرية من التكنولوجيا الفتاكة، واضافت متحدثة في نقاش في دافوس، "وربما يكون الاوان قد فات الآن".&
وأضافت: "هناك بلدان عديدة وممثلون كثيرون في المجموعة الدولية لا يدركون تمامًا ماذا يعني ذلك، لكن هذا التطور مقتصر على عدد قليل من الدول المتقدمة فقط".&
&
وقال علماء إن استخدام اسلحة مستقلة يمثل مرحلة جديدة في مسار الحروب، وهو أمر يتميز بخطورة كبيرة.
&
ونقلت صحيفة ذا لوكال عن ستيوارت راسل، بروفسور علوم الكومبيوتر في جامعة كاليفورنيا، بيركلي، قوله: "لا نتحدث هنا عن طائرات مسيرة يقوم شخص من البشر بالتحكم بها، بل نتحدث عن اسلحة مستقلة، وهذا يعني انه لا يوجد أحد يتحكم بها، وهي اسلحة تستخدم الذكاء الصناعي".
&
وتابع راسل متحدثًا أمام المنتدى الاقتصادي في دافوس، "يتعلق الامر هنا بالتحديد بأسلحة يمكنها تحديد مواقع أهداف ومهاجمتها دون تدخل بشري". &
&
قواعد الحرب
&
وقال راسل ايضًا إنه لم يتوقع على الاطلاق أن يأتي يوم يحارب فيه اشخاص آليون مكان البشر، ثم يقولون في النهاية "حسنًا، انت المنتصر، خذ كل نسائنا".&
&
وكان حوالى الف من كبار العلماء والمختصين بالتكنولوجيا، بينهم عالم الفيزياء البريطاني الشهير ستيفن هوكنغ، قد قالوا في رسالة مفتوحة في تموز (يوليو) الماضي، إن تطوير اسلحة لها درجة عالية من الاستقلالية على صعيد اتخاذ القرار أمر ممكن التحقيق في غضون سنوات، وليس في غضون عقود. ثم دعوا الى فرض حظر على هذا النوع من الاسلحة التي لا تخضع لإرادة بشر وحذروا من اعتماد العالم على اسلحة ذات ذكاء صناعي، ومن سباق تسلح في هذا المجال، وما يمكن ان يحدث لو سقطت مثل هذه الاسلحة في ايادي متطرفين.&
&
وتساءل راسل "السؤال هو، هل يمكن لهذه الآلات ان تحترم قواعد الحرب؟".&
&
صعب الفهم
&
وتساءل راسل "كيف يمكن لآلة مثلا أن تميز بين الجنود والمدنيين ومقاتلي المقاومة والمتمردين؟ وكيف لها أن تعرف أنها يجب الا تقتل طيارًا قفز من طائرته المصابة وراح يهبط بمظلته الى الارض؟" واضاف "أنا ضد هذه الآلات لأسباب اخلاقية، ولكنني لا اعتقد ان المبررات الاخلاقية ستنتصر في احد الأيام، بل اعتقد ان المبررات الاستراتيجية هي التي ستفوز".&
&
وقال راسل ايضًا إن الولايات المتحدة تخلت عن استخدام الاسلحة البيولوجية بسبب احتمال استخدامها في احد الايام ضد أي شخص وأي مجموعة، حسب قوله، ثم قال "آمل ان يحدث الشيء نفسه للروبوتات".&
&
من جانبه، حذر آلان وينفيلد استاذ الهندسة الكهربائية في جامعة ويست اوف انغلاند، من مخاطر جمة قد تنجم عن إلغاء وجود البشر في عملية اتخاذ القرارات في ميادين المعارك، وقال "سيعني هذا تجريد البشر من مسؤوليتهم المعنوية"، ثم نبّه الى احتمال تصرف الآلة بطريقة غير متوقعة، واضاف "عندما تضع إنسانًا آليًا في جو من الفوضى، فقد يتصرف بطريقة فوضوية".&
&
وأيد روجر كار، رئيس مجموعة BAE لصناعات الطيران والدفاع هذا المنطق، وقال: "إن ازحنا المعايير الاخلاقية والقدرة على اصدار حكم والجانب المعنوي من أي عملية ينجزها بشر سواء أكانت في حالة السلام أم في حالة الحرب، فإننا ننقل البشرية الى مستوى آخر يقع خارج إطار فهمنا".&
&
واضاف: "لا يمكنكم ايضًا وضع شيء فيه خلل فني في ميدان المعركة، فهذا أمر قد يكون مدمرًا مع غياب سيطرة البشر على الآلية كلها. ومن هنا، لا تقتصر العلاقة المهمة جدًا بين الانسان والآلة على اتخاذ قرار يتعلق بمتى يجب نشر الاسلحة، بل ايضا على القدرة على وقف العملية كلها. ولهتين المسألتين نفس القدر من الأهمية".&