إيلاف من سان فرانسيسكو: في عصر تتسارع فيه أخبار التقدّم التقني، يوصف الذكاء الاصطناعي غالبًا بأنه أداة حيادية وعدالة رقمية. لكن السؤال الأهم: هل هو فعلاً كذلك؟ أم أنه يعكس ويضخّم تحيّزات المجتمع؟
تقول شركة IBM إن "الأنظمة الذكية المتحيّزة تعكس أو تعزز التحيزات الاقتصادية والاجتماعية والجندرية (Gender) الموجودة أصلاً والمقصود بها هنا التحيزات بين الجنسين"، أو ببساطة: بناء ذكاء اصطناعي على بيانات منحازة يشبه الوقوف أمام مرآة مشوّهة... النتيجة، صورة مشوّهة.
المشكلة ليست في الذكاء الاصطناعي نفسه، بل في البيانات التي نُدرّبه بها. فإذا كانت هذه البيانات تحتوي على تحيّزات مسبقة، فإن الآلة ستتعلم منها وتكررها.
تخيّلي أنك تصمّمين أداة لاختيار موظفين، وتُدرّبينها على بيانات معظمها من سير ذاتية لرجال خريجي تخصصات هندسية. تلقائيًا، ستعتقد الأداة أن "المرشح الجيد" يجب أن يشبه تلك النماذج.
هذا تمامًا ما حدث في شركة أمازون، حيث طوّرت أداة ذكية لتقييم طلبات التوظيف، لكن تبيّن بعد عام أنها تقلل من تقييم أي سيرة ذاتية تشير إلى "النساء" أو حتى كلمة "نسائي"! كانت الآلة تفضل كلمات يميل الرجال لاستخدامها مثل "نفّذ" و"أدار"، وتتجاهل ما يرتبط بالنساء. النتيجة؟ أداة ذكية ترفض النساء من دون وعي.
وفي مثال آخر، أنظمة التعرف على الوجوه فشلت مرارًا في التعرّف بدقة على أصحاب البشرة الداكنة أو الخلفيات الثقافية غير الغربية، لأنها تدربت على بيانات فيها تمثيل ضعيف لهذه الفئات.
هل يمكن إصلاح هذا الخلل؟
نعم، لكن الأمر يتطلب وعيًا عميقًا وتدخلاً بشريًا حقيقيًا، يشمل:
- تنويع البيانات التي تتعلم منها الأنظمة.
- تصميم أنظمة تُظهر أسباب قراراتها بشفافية.
- إشراف بشري يراجع نتائج الذكاء الاصطناعي ويختبرها بعدالة.
الذكاء الاصطناعي ليس كيانًا مستقلًا... بل هو مرآة لِما نغذّيه به. وإذا أردنا نتائج عادلة، يجب أن نُغذّيه بالعدل من البداية.
التعليقات