أنظمة الذكاء الاصطناعي أصبحت أكثر قدرة وفاعلية، حيث يمكن لنماذج الذكاء الاصطناعي إنشاء نصوص وصور وفيديو يصعب تمييزها عن ذلك المحتوى الذي يصنعه الإنسان، وشاهدنا أخيرا كثيرا من هذه النماذج القوية وعديدا من تطبيقاتها المفيدة، التي تحدثت عنها في مقالات سابقة، كمفهوم واستخدام وانتشار في كثير من المجالات بمستويات عدة، وكيف أنها أصبحت الآن محطة للأنظار لخوض التنافس الاستثماري القوي بين كثير من دول العالم سواء كان ذلك اقتصاديا أو دفاعيا عسكريا، لكن لا بد من مراعاة تحديات ومخاطر ذلك، فعندما يصبح الذكاء الاصطناعي أكثر تقدما، فإنه من الممكن أن يشكل خطرا كبيرا لا يمكن معرفة آثاره السلبية في وقتها، ولا يمكن في كثير من الأحيان التصدي له. وهناك عديد من الطرق التي يمكن أن تشكل بها أنظمة الذكاء الاصطناعي مخاطر واسعة النطاق أو تسهم فيها. في هذا المقال، سأستعرض بعضا من تلك المخاطر والآثار المترتبة على تطوير مثل هذه التقنيات واستخدامها، والتي قد تواجه المجتمعات عموما، وما التحديات التي لا بد من مواجهتها وقبولها، للتصدي لمثل هذه المخاطر، وكيفية التعامل معها بشكل استباقي للسيطرة عليها.

إن موضوع المخاطر المحتملة والمتعلقة بالتقدم السريع لتقنيات الذكاء الاصطناعي أصبح من الموضوعات المهمة المتداولة في الوقت الحاضر، وهي كغيرها من التقنيات والتكنولوجيا، تعد أنظمة وتقنيات مفيدة للغاية، لكن قد تظهر لها مخاطر وآثار جسيمة لأسباب وعوامل عدة، منها الرغبة في النفوذ أو السيطرة، أو بسبب ضغوط تنافسية، أو غيرها من العوامل الأخرى. ولعل من بين هذه المخاطر -على سبيل المثال- صعوبة تحقيق التحكم الكامل عليها، لكونها يمكن أن تتطور بشكل سريع وغير متوقع وتتجاوز التوقعات البشرية لها، وذلك قد يؤدي إلى حدوث أعمال أو قرارات غير مرغوب فيها أو ضارة وخطيرة، كزراعة تقنيات الشرائح الإلكترونية الذكية في أدمغة البشر من شركة نيورالينك، والمخاوف والمخاطر من جراء ذلك، كما يمكن توظيف تقنيات الذكاء الاصطناعي في الأنشطة الإجرامية والخداعية، مثل الاحتيال الإلكتروني، والاختراقات السيبرانية، والتضليل الإعلامي، والتلاعب بالأسواق الاقتصادية، وغيرها من الأنشطة غير القانونية وغير الأخلاقية، ما قد يصعد الجريمة ويعقد الجهود في مكافحتها. ومن الأمثلة أيضا، مع تزايد الكم الهائل من البيانات التي تتعامل معها أنظمة وتقنيات الذكاء الاصطناعي، يمكن أن تتعرض هذه البيانات للاختراق أو الاستغلال غير المشروع، وذلك سيشكل تهديدا واضحا للخصوصية والأمان. كما أن الاعتماد الكبير على الذكاء الاصطناعي في النظم الحيوية الحساسة يؤدي إلى تهديد الأمان والسلامة العامة، والاعتماد الزائد على هذه التقنيات قد يتسبب أيضا في تقليل التحكم البشري في كثير من العمليات واتخاذ القرارات، وهذا بالتالي قد ينتج عنه كثير من الأخطاء أو الأعمال غير المرغوب فيها أو غير المتوقعة أو صعبة الحل.

وبدأ كثير من المراكز البحثية والمنظمات غير الربحية في مجال تقنيات الذكاء الاصطناعي وأنظمته، استشعار هذه المخاطر والتحديات، مثل مركز أمان الذكاء الاصطناعي في سان فرانسيسكو، كاليفورنيا، وعملت على تحديد نوعية مجموعة من المخاطر، وأثر استخدام مثل هذه التقنيات والأنظمة الخاصة بالذكاء الاصطناعي، والآثار المترتبة على ذلك، ونشرت عبر موقعها الإلكتروني أمثلة متعددة لتلك المخاطر، شملت خطورة بناء تقنيات وأنظمة ذكاء اصطناعي تدميرية، كالأسلحة الكيميائية والبيولوجية وغيرها، لغرض بسط النفوذ والسيادة، وما يترتب على ذلك من فقدان الأمن والاستقرار، وبدأت مثل هذه المراكز والمنظمات بالعمل على تطوير وتصميم معايير وأساليب لضمان وتعزيز سلامة هذه الأنظمة وتبني بنيات تحتية ومسارات في أمان الذكاء الاصطناعي.

ولمواجهة هذه التحديات والمخاطر، لا بد من وضع قوانين وسياسات وأنظمة، تضبط مسار هذه التقنيات وتعمل على حوكمتها لتجنب الوقوع في مخاطرها التي سبق ذكرها، وأن تكون هذه الأنظمة والقوانيين قابلة للتحديث والتطوير ما بين فترة وأخرى. لذا نجد أخيرا أنه في الولايات المتحدة التي تعد رائدة في مجال الذكاء الاصطناعي ومنافسا قويا على هذه الساحة، قام مكتب البيت الأبيض لسياسات العلوم والتكنولوجيا بتحديث خططه الاستراتيجية الوطنية للبحث والتطوير في مجال تقنيات الذكاء الاصطناعي، وذلك لأول مرة منذ 2019، والتي في ضوئها تم تحديد الأولويات والأهداف الرئيسة للاستثمارات الفيدرالية في البحث والتطوير في مجال الذكاء الاصطناعي، وتم من خلالها التأكيد على أهمية إدارة المخاطر المرتبطة بالذكاء الاصطناعي وخدمة المصلحة العامة، وحماية الحقوق والسلامة، وتعزيز القيم الأخلاقية. وشمل هذا التحديث استراتيجيات عدة، منها: فهم ومعالجة الآثار الأخلاقية والقانونية والمجتمعية للذكاء الاصطناعي. ضمان سلامة وأمن أنظمة الذكاء الاصطناعي. قياس وتقييم أنظمة الذكاء الاصطناعي من خلال معايير قياسية. كما اشتملت على ضرورة تسخير الذكاء الاصطناعي لتحسين جودة الحياة، وووضع نهج مبدئي ومنسق ومحكم للتعاون الدولي في أبحاث الذكاء الاصطناعي. محليا، ولكون تقنيات الذكاء الاصطناعي يمكن تداولها عبر شبكات الإنترنت، فهناك دور كبير وتحد أكبر على عاتق الهيئة السعودية للبيانات والذكاء الاصطناعي "سدايا"، والمركز الوطني للذكاء الاصطناعي، وهيئة التحول الرقمي، وغيرها من الجهات المعنية، لوضع آلية محكمة وسن أنظمة وقوانين محلية لضبط عمليات استخدامها ومتابعتها ومراقبتها كحلول استباقية للحد من أخطارها وآثارها السلبية. وأرى كذلك أن معالجة هذه المخاطر تتطلب أن يكون هناك تعاون دولي لتطوير أطر وقوانين وأخلاقيات واضحة للتعامل مع تطور تقنيات الذكاء الاصطناعي، حتى يكون هناك توازن بين استفادة المجتمع من فوائد هذه التقنيات والأنظمة، وفي الوقت نفسه تحقيق الحماية اللازمة من مخاطرها المحتملة.