يدعو العلماء إلى اعتماد نظرة أكثر واقعية للتطبيقات اليومية البسيطة للذكاء الاصطناعي، بدلًا من التفكير في تسليم نواحي حياتنا كلها إلى روبوتات فائقة الذكاء.

إيلاف: يكثر الحديث عن الذكاء الاصطناعي وقدرته على علاج الأمراض وتسريع الابتكار وتحسين الإبداع البشري. وأدى هذا الهوس إلى ظهور فلسفة تراهن على الآلة لحل كل مشكلات البشرية.

لكن خبراء يؤكدون أن هذه النظرة بدلًا من أن تدعم تقدم الذكاء الاصطناعي تهدد في الحقيقة قيمة ذكاء الآلة بتجاهل أهمية مبادئ السلامة في تطبيق هذه التكنولوجيا وتبني آمالًا غير واقعية على ما يمكن أن يحققه الذكاء الاصطناعي فعلًا للبشرية.

رهان يتسهين بالتعقيد
لاحظ تقرير نشره موقع "ذي كونفرزيشن" الإخباري أن هذه العدوى انتقلت إلى مسؤولين حكوميين وصانعي سياسات في أنحاء العالم، وانقلب الحديث من تهديد الذكاء الاصطناعي بتدمير البشرية إلى التعويل عليه لإنقاذها.

نشهد الآن حكومات تتعهد بدعم مبادرات وطنية في قطاع الذكاء الاصطناعي، وتتسابق للهيمنة عليه. تعهدت الحكومة البريطانية مثلًا باستثمار 300 مليون جنيه إسترليني في بحوث الذكاء الاصطناعي، لتحتل موقع الصدارة في هذا المضمار. &يصح الشيء نفسه على بلدان أخرى، بينها فرنسا والصين. لكن هذا الرهان على ثورة الذكاء الاصطناعي يستهين بالتعقيد الذين ينطوي عليه استخدام منظومات متطورة كهذه في العالم الواقعي.&

من الأمثلة التي أوردها التقرير استخدام تقنيات الذكاء الاصطناعي في الشبكات العصبية. يسعى هذا الشكل من تعلم الآلة إلى محاكاة التكوين العصبي لدماغ الإنسان، لكن على نطاق أضيق كثيرًا. لكن، ما لا يفهمه كثير من السياسيين هو أن إضافة شبكات عصبية إلى مشكلة لا يعني تلقائيًا إيجاد حل لها. وعلى الغرار نفسه، إضافة شبكة عصبية إلى نظام ديمقراطي لا يعني أنه سيكون أكثر عدالة على الفور.

تتطلب منظومات الذكاء الاصطناعي كميات كبيرة من المعلومات لعملها، لكن القطاع العام لا يمتلك البنية التحتية المعلوماتية لدعم تعلم الآلة على مستوى متطور. وما زالت غالبية المعلومات محفوظة في أرشيفات غير متصلة بالإنترنت.&

المطلوب نظرة أكثر واقعية
هذا كله أوجد منتقدين كثيرين لنزعة الرهان المطلق على الذكاء الاصطناعي لحل جميع المشكلات. دعا البروفيسور ستيوارت راسل، أستاذ علم الكومبيوتر في جامعة بيركلي في ولاية كاليفورنيا الأميركية، إلى اعتماد نظرة أكثر واقعية تركز على التطبيقات اليومية البسيطة للذكاء الاصطناعي بدلًا من التفكير في تسليم نواحي حياتنا كلها إلى روبوتات فائقة الذكاء.

على الغرار نفسه، كتب البروفيسور رودني بروكس، استاذ علم الروبوتات في معهد ماسشوسيتس للتكنولوجيا، قائلًا :"إن الابتكارات كلها تقريبًا في علم الروبوت والذكاء الاصطناعي تستغرق وقتًا أطول كثيرًا لاستخدامها على نطاق واسع مما يتخيله اشخاص عاملون في هذا الميدان وخارج الميدان".

من الصعوبات العديدة التي يشير إليها التقرير في استخدام منظومات تعلم الآلة أن الذكاء الاصطناعي مكشوف إلى أقصى الحدود لهجمات معادية.

يعني هذا أن ذكاءً اصطناعيًا يمكن أن يهاجم آخر لدفعه إلى إطلاق توقعات خاطئة، أو التصرف بطريقة معيّنة. وحذر كثير من الباحثين من استخدام الذكاء الاصطناعي من دون معايير أمنية وآليات دفاعية ملائمة. مع ذلك، يمثل أمن الذكاء الاصطناعي جانبًا من الجوانب التي كثيرًا ما يجري إغفالها.

ليس حلًا لكل شيء
الأجدى لتحقيق الفوائد من الذكاء الاصطناعي هو إيجاد طرائق عملية لتطبيقه في مجالات محددة من الإدارة الحكومية وقطاع الأعمال والمجتمع، مع مراعاة الجوانب الأخلاقية، وعدم ثقة كثير من المواطنين بتعلم الآلة. الأهم من ذلك الاعتراف بحدود الذكاء الاصطناعي وتحديد المجالات التي يبقى من الضروري أن تكون القيادة فيها بيد البشر.

هذا ما اكتشفته شركة فايسبوك حين تعيّن عليها تشغيل 10 آلاف شخص للتدقيق في الأخبار الكاذبة على موقع التواصل الاجتماعي، بعدما فشلت الآلة في الاضطلاع بهذه المهمة.

اعترفت مهنة الطب أيضًا بأن الذكاء الاصطناعي لا يمكن أن يعتبر الحل لكل المشكلات، كما يؤكد التخلي عن البرنامج الذي أعدت شركة آي بي إم لمساعدة الأطباء على علاج السرطان على ما يُفترض. وظهرت مشكلات مماثلة في القضاء، عندما استُخدمت ألغوريثمات في بعض المحاكم الأميركية لإصدار الأحكام على مجرمين. واتضح أن المنظومة تضخم التمييز العنصري البنيوي، فتم التخلي عنها.

تبيّن هذه الامثلة أن الذكاء الاصطناعي ليس حلًا لكل شيء، وأن استخدامه في كل شيء ليس مجديًا. هذا هو الدرس الأساسي لكل من يهدف إلى زيادة الاستثمار في برامج وطنية للذكاء الاصطناعي. فكل الحلول تأتي بثمن، وليس كل ما يمكن أتمتته يجب أن يؤتمت.

أعدت "ايلاف" هذا التقرير عن موقع "ذي كونفرزيشن". الأصل منشور على الرابط:
https://theconversation.com/why-ai-cant-solve-everything-97022

.