لندن: في عصر الفوتوشوب وسناب تشات وشبكات التواصل الاجتماعي اصبح من المعتاد ان نرى صوراً جرى تحويرها ليبدو صاحبها نحيفاً وسيماً أو بالعكس.

ولكن جيلا جديداً ظهر من أدوات التلاعب بأفلام الفيديو والصوت التي تستخدم انجازات الذكاء الاصطناعي والغرافيك الالكتروني لانتاج افلام تبدو واقعية تظهر فيها شخصيات عامة وهي تقول أي شيء.

ولم يعد من المستغرب ان نرى دونالد ترمب يتحدث عن قدراته الخارقة في الرياضات المائية أو هيلاري كلينتون تتحدث عن اطفال مخطوفين تحتجزهم داخل قبو النبيذ في منزلها.

ويقول خبراء ان هذا هو مستقبل الأخبار الكاذبة التي، بفضل التكنولوجيا الحديثة، سيكون من الصعب اكتشاف كذبها. وكان يُقال لنا تقليدياً ألا نصدق ما نقرأه في الجرائد وسيُقال لنا قريباً ألا نصدق ما نرى ونسمع ايضاً.

محاكاة الأصوات

وتمكن باحثون في جامعة ستانفورد الاميركية من تطوير برمجية قادرة على التلاعب بأفلام فيديو يظهر فيها قادة سياسيون وشخصيات اجتماعية لتمكين شخص ثان من تقويلهم أي شيء يريد ان يضعه في افواههم في الزمن الحقيقي.

وتلتقط البرمجية Face2Face تعابير الشخص الثاني الوجهية اثناء الكلام على كاميرا الويب ثم تنقل هذه الحركات مباشرة الى وجه الشخص الموجود في الفيديو الأصلي. وباضافة صوت الكتروني يحاكي صوت الشخص الحقيقي يكون الفيلم مقنعاً تبدو فيه الدمية الرقمية بهيئة السياسي الحقيقي وبصوته ايضاً. وعرض فريق الباحثين عمل تكنولوجيته بالتلاعب بأفلام فيديو يظهر فيها جورج بوش وفلاديمير بوتين ودونالد ترمب. 

ويعمل فريق ابحاث في جامعة الاباما الاميركية على محاكاة الأصوات. وباستخدام 3 الى 5 دقائق من صوت الضحية مأخوذا من افلام فيديو على يوتيوب أو حوارات اذاعية، يستطيع صانع الأخبار الكاذبة ان ينتج صوتأ اصطناعياً يخدع البشر والأنظمة الأمنية البيومترية التي تستخدمها بعض المصارف والهواتف الذكية. 

وتمكنت شركة لايربيرد الكندية الناشئة من تطوير قدرات مماثلة تقول ان بالامكان استخدامها لتحويل النص الى كتاب سمعي يُقرأ بأصوات مشاهير أو يكون اصوات ابطال في العاب الفيديو.

ويعمل باحثون في جامعة واشنطن على مشروع باسم "تركيب اوباما" أخذوا فيه مقطعاً صوتياً من احد خطابات اوباما واستخدموه لتحريك وجهه في فيديو آخر مختلف تماماً بدقة مدهشة من التناغم بين حركات الوجه والكلمات.

وقال البروفيسور نايتش ساكسينا رئيس قسم علوم الكومبيوتر في جامعة الاباما ان لهذه التكنولوجيات تطبيقات متعددة الى جانب انتاج الأخبار الكاذبة بينها تزوير رسائل صوتية تحاكي والدة شخص ما أو التشهير بشخص بنشر المقاطع الصوتية المزيفة على الانترنت.

كارثة حقيقية

وبمرور الزمن ستتمكن هذه التكنولوجيات من إعادة انتاج صوت أي شخص أو مظهره بحيث يكون من الصعوبة بمكان على البشر اكتشاف التزوير.

وإزاء انعدام الثقة بالاعلام في الغرب وانتشار الأخبار الكاذبة عبر مواقع التواصل الاجتماعي ستزداد أهمية ان تدقق وسائل الاعلام في كل محتوى يبدو حقيقياً في صورته وصوته. 

وقال خبراء ان مثل هذا المحتوى المزيف قد لا يمر على غرف الأخبار التي تدقق بصرامة ولكنه إذا نُشر في شريط فيديو على مواقع التواصل الاجتماعي يمكن ان ينتشر بسرعة ويسبب كارثة سياسية أو دبلوماسية أو كارثة علاقات عامة. تخيلوا ترمب يظهر معلناً الحرب على كوريا الشمالية مثلا. 

وقال ساكسينا من جامعة الاباما انه "إذا كان أحد ما يشبه ترمب ويتكلم مثل ترمب فانهم سيظنون انه ترمب". واضافت الخبيرة ماندي جينكنز من شركة ستوريفول المتخصصة بالتحقق من محتوى الأخبار ان تصديق الأخبار الكاذبة يحدث الآن حتى من دون تزوير اصوات أو افلام فيديو وان التكنولوجيا الجديدة ستزيد هذا الوضع تردياً.

اعدت "إيلاف" هذا التقرير بتصرف عن "الغارديان". الأصل منشور على الرابط التالي:

https://www.theguardian.com/technology/2017/jul/26/fake-news-obama-video-trump-face2face-doctored-content