اقتصاد

للرد على الانتقادات بشأن المخاطر المرتبطة بهذه التكنولوجيا

تويتر تعمل على جعل تقنياتها للذكاء الاصطناعي أكثر أخلاقية وشفافية

صورة أرشيفية
قراؤنا من مستخدمي إنستجرام
يمكنكم الآن متابعة آخر الأخبار مجاناً من خلال حسابنا على إنستجرام
إضغط هنا للإشتراك

سان فرانسيسكو: قدمت تويتر أعمالها الجارية حاليا لجعل خوارزمياتها أكثر مراعاة للأخلاقيات ومنح المستخدمين تحكما أكبر، في طريقة للرد على الانتقادات بشأن المخاطر المرتبطة بهذه التكنولوجيا.

وقالت الشبكة الاجتماعية إنها تسعى إلى تحسين خوارزميات "التلقين الآلي"، أي القواعد المعلوماتية التي تتيح لأجهزة الكمبيوتر "التعلم" تلقائيا بالاعتماد على بيانات. وبفضل أنظمة الذكاء الاصطناعي، "تستنج" المنصة بالاعتماد على تاريخ التصفح للمستخدم أنه يفضل على سبيل المثال فيديوهات الكلاب على تلك الخاصة بالقطط.

لكن الشبكة الأميركية أقرت بأنه "عندما تستخدم تويتر +التلقين الآلي+، قد تكون لذلك تبعات مرتبطة بمئات ملايين التغريدات يوميا، وأحيانا يمكن للنظام أن يتصرف بصورة مغايرة عن النية التي صُمم من أجلها أساساً".

وأوضحت تويتر الأربعاء أن "خيار الخوارزميات سيعطي تحكما أكبر للمستخدمين بالطريقة التي يريدون أن يظهر فيها تويتر لديهم. نحن في مرحلة استكشاف في هذا الشأن".

وأشارت الشبكة إلى أن التلقين الآلي "المسؤول" يقوم على "تحمل مسؤولية قراراتنا على صعيد الخوارزميات"، وضمان شفافية قراراتنا مسبقا والطابع المنصف للنتائج لاحقا.

وسيبدأ الفريق المكلف المبادرة نشر دراسات عن مواضع انحياز محتملة في الخوارزميات على أساس الجنس أو العرق قبل النشر، أو أيضا على "التوصيات بشأن المحتويات للعقائد السياسية المختلفة في سبعة بلدان".

وتعمل شركات كبرى أخرى على هذه المواضيع. فلدى غوغل مثلا، أفضت سلسلة خلافات بين الإدارة وفريق باحثين في أخلاقيات الذكاء الاصطناعي إلى الاستغناء عن باحثتين واستقالة عالم معروف.

التعليقات

جميع التعليقات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن رأي إيلاف