تحذيرات من مخاطر الذكاء الصناعي
روبوت "هوليود" القاتل أصبح واقعًا!
قرائنا من مستخدمي تلغرام
يمكنكم الآن متابعة آخر الأخبار مجاناً من خلال تطبيق تلغرام
إضغط هنا للإشتراك
يمكنكم الآن متابعة آخر الأخبار مجاناً من خلال تطبيق تلغرام
إضغط هنا للإشتراك
إعداد عبدالاله مجيد: حذّر قانونيون وناشطون وخبراء في الذكاء الاصطناعي، ينتمون الى حملة عالمية من اجل وقف الروبوتات القاتلة، من الاعتماد المتزايد على الطائرات المسيّرة الرخيصة، وما سموّه "الذكاء الاصطناعي الغبي"، الذي لا يمكن التنبؤ بنتائج افعاله في العالم الواقعيّ. وذلك عقب اجتماعهم في مقر الأمم المتحدة في نيويورك.
وقال استاذ الذكاء الاصطناعي في جامعة نيو ساوث ويلز الاسترالية، توبي وولش، في مؤتمر صحفي، أن الروبوت القاتل الذي تُصوره افلام هوليود سيصبح واقعًا في غضون عقود قليلة، مشيرًا إلى أن تكنولوجيات تصنيعه "لا تبعد عنا إلا سنوات قليلة"، وبالتالي فإن "استبعاد البشر والاستعاضة عنهم بالكومبيوتر سيكون في منتهى السهولة"، مؤكدًا بأن أي شخص "يستطيع أن يصنع روبوتًا قاتلًا، بمجرد أن يشتري طائرة مسيّرة عبر الإنترنت، بالإضافة إلى هاتف ذكي والبرمجية المناسبة لهما".&سباق تسلّح&وكان اكثر من 1000 خبير وباحث بعلم الروبوتات، قد وقّعوا رسالة مفتوحة الى المجتمع الدولي يحذّرون فيها من انطلاق سباق تسلّح في مضمار الذكاء الاصطناعي، متوقعين ان تكون الروبوتات القاتلة اقرب الى بنادق "الكلاشنكوف" منها الى الأسلحة النووية.&&ورسم العلماء صورة قاتمة للانتشار العشوائي للذكاء الاصطناعي في ميادين القتال وعلى الحدود بين الدول، معتبرين بان الموارد المطلوبة لتصنيع "روبوتات قاتلة" ستصبح، بخلاف تكنولوجيا الأسلحة النووية، أرخص ثمنًا وأكثر توفرًا بمرور الوقت. &&واعلن البروفيسور وولش ان تكنولوجيا الروبوتات القاتلة "ستشدنا نحو خوض الحروب"، واضاف: "ان ذلك سيكون في منتهى السهولة وسنظن بأننا نستطيع خوض الحروب بصورة نظيفة"، مؤكدًا خطورة الأمر، لا سيّما وأن الروبوت سيكون غير قادر، حينها، على التمييز بين المقاتلين والمدنيين.&ولاحظ البروفيسور وولش "ان الذكاء الاصطناعي يرتكب اخطاء مدمرة رغم إدارته، بشكل مباشر، من قبل البشر، مشيرًا الى ان "صواريخ الباتريوت اصابت طائرات اميركية وبريطانية في حرب الخليج الأولى"، بالإضافة إلى أن بعض الوثائق، التي كُشفت مؤخرًا، أكدت إقدام الطائرات الأمريكية المسيّرة على تنفيذ عدد كبير من الاغتيالات دون التأكد من هوية الشخص الذي قتل في الغارة.&&وقارن ايان كير، استاذ الأخلاق والقانون في جامعة اوتاوا الكندية، تمكين الذكاء الاصطناعي من اختيار الهدف، بالقتل بلعبة الروليت الروسية، مؤكدًا بان ذلك "سيعبر خطًا اخلاقيًا لم نعبره قطّ في السابق"، فيما حذّر البروفيسور بيتر اسارو، من كلية نيويورك الجديدة، من إمكانية عمل الروبوتات من دون سيطرة بشرية، متسائلًا: "من المسؤول إذا لم تعمل هذه الروبوتات بصورة صحيحة؟".&طريقة جديدة&&في المقابل، قال ستيف كوس، مدير قسم الأسلحة في منظّمة هيومن رايتس ووتش، في حديث لصحيفة الغارديان: "ان تصنيع هذه الروبوتات ليس رواية من روايات الخيال العلمي بل هو طريقة جديدة تمامًا للقتال"، وأضاف: "سنرى استخدامها في الأمن الداخلي وحراسة الحدود والسيطرة على اعمال الشغب".&&تحذير من المماطلة&في المقابل، التزمت الولايات المتحدة وبريطانيا واسرائيل وكوريا الجنوبية الصمت بشأن القضية في الأمم المتحدة، علمًا بأن لديهم برامج لتطوير الذكاء الاصطناعي، ويعتبرون من أكثر الدول انفاقًا على جيوشها.&وضمن هذا السياق، قال "كوس"، من منظمة هيومن رايتس ووتش، أن الولايات المتحدة واسرائيل طالبتا في الامم المتحدة بإبقاء الخيار مفتوحًا، في حين ان روسيا والصين تابعتا المحادثات بصمت، بينما تُطور الدول برامجهما الخاصة في هذا المجال.&وتوقع كوس، في حال مواقفة الأمم المتحدة على اجراء محادثات رسمية حول المقترح الداعي الى منع الروبوتات القاتلة في 13 تشرين الثاني/نوفمبر، ان يصطدم المقترح بمعارضة، معربًا عن أمله بأن تسفر هذه المحادثات عن نتائج في وقت قريب، مُحذرًا من الإنتظار طويلًا، لأن "التطورات التكنولوجية ستتجاوز الدبلوماسية بسرعة".التعليقات
جميع التعليقات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن رأي إيلاف