إيلاف من بيروت: جيفري هينتون رائد في مجال الذكاء الاصطناعي. ففي عام 2012، أنشأ واثنين من طلابه الخريجين في جامعة تورونتو تكنولوجيا أصبحت المنشأة الفكرية لأنظمة الذكاء الاصطناعي التي يعتقد أكبر شركات التكنولوجيا أنها مفتاح المستقبل.

في يوم الاثنين، انضم هينتون رسميًا إلى جوقة انتقاد الذكاء الاصطناعي، إذ يقول في حوار مع صحيفة نيويورك تايمز إن الشركات التي تطور أنظمة هذا الذكاء تتسابق نحو الخطر من خلال حملتها المحمومة لإنشاء منتجات تستند إلى الذكاء الاصطناعي التوليدي، وهي التكنولوجيا التي تشغل ChatGPT ونظائره.

قال هينتون إنه استقال من وظيفته في غوغل حيث عمل أكثر من عقد، ليتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي. وتعتبر هذه الخطوة لحظة ملحوظة لصناعة التكنولوجيا في نقطة تحولها الأهم في عقود. يعتقد قادة الصناعة أن الأنظمة الجديدة للذكاء الاصطناعي يمكن أن تكون بنفس أهمية متصفح الويب في أوائل التسعينيات، ويمكن أن تؤدي إلى اختراقات في مجالات تتراوح بين أبحاث الأدوية والتعليم.

مع ذلك، الخوف مما يقوم به العديد من المسؤولين في هذا القطاع هو أنهم – بحسب هينتون - يقومون بإطلاق شيء خطير. يقول: "يمكن أن يكون الذكاء الاصطناعي بالفعل أداة لإطلاق المعلومات الخاطئة. قريبًا، يمكن أن يشكل خطرًا على الوظائف". يقول بعض الخبراء الكبار في هذه التكنولوجيا إنه في وقت ما في المستقبل، يمكن الذكاء الاصطناعي أن يشكل خطرًا على الإنسانية.

يقول ديفيد تشوي، الرئيس التنفيذي لشركة OpenAI: "من الصعب معرفة كيف يمكنك منع المستخدمين السيئين من استخدام هذه التكنولوجيا لخداع الناس. يجب أن نتأكد من أن الأدوات التي ننشئها لا تصب في صالح أشخاص يريدون خداع الآخرين أو إضعاف الديمقراطية".

هذا هو السبب الذي دفع هينتون إلى تحذير العالم من الاهتمام الزائد بالذكاء الاصطناعي. يقول: "يجب علينا تحديد الطريق الأمثل لاستخدام هذه الأدوات بشكل آمن ومسؤول. فإن لم نكن حذرين، قد نقوم باستحداث شيء يمكن أن يتحكم فينا بشكل أكبر مما يمكننا التحكم فيه".

أعدت "إيلاف" هذا التقرير عن حوار أجراه كايد ميتز مع البروفيسور جيفري هينتون ونشرته صحيفة "نيويورك تايمز"