ستتيح للباحثين إيجاد حلول للمخاطر المحتملة لهذه التكنولوجيا
ميتا تكشف عن نسخة للذكاء الاصطناعي أكثر حذراً من "تشات جي بي تي"
يمكنكم الآن متابعة آخر الأخبار مجاناً من خلال تطبيق تلغرام
إضغط هنا للإشتراك
سان فرانسيسكو: كشفت ميتا، المالكة لفيسبوك، الجمعة عن نسختها الخاصة من الذكاء الاصطناعي المستخدم في تطبيقات مثل "تشات جي بي تي"، قائلة إنها ستتيح للباحثين إيجاد حلول للمخاطر المحتملة لهذه التكنولوجيا.
وصفت ميتا برنامج الذكاء الاصطناعي الخاص بها، والمسمى LLaMA (لاما)، بأنه نموذج "أصغر وأفضل أداءً"،" صُمم "لمساعدة الباحثين على تطوير عملهم"، في ما يمكن اعتباره انتقاداً مبطّناً لقرار مايكروسوفت بإصدار التكنولوجيا على نطاق واسع، مع الاحتفاظ برمز البرمجة سرّياً.
ضجّة عالمية
وقد أثارت برمجية "تشات جي بي تي" المدعومة من مايكروسوفت، ضجة كبيرة في العالم بفعل قدرتها على إنشاء نصوص متقنة مثل المقالات أو القصائد، في ثوانٍ فقط باستخدام تقنية تُعرف باسم نماذج اللغات الكبيرة ("LLM" - "ال ال ام").
الذكاء الاصطناعي التوليدي
تعد تكنولوجيا LLM جزءاً من مجال يُعرف باسم الذكاء الاصطناعي التوليدي والذي يتضمن أيضاً القدرة على التصرف بالصور أو التصميمات أو كود البرمجة بشكل فوري تقريباً بناءً على طلب بسيط.
وعمقت مايكروسوفت شراكتها مع شركة "أوبن إيه آي"، مبتكرة "تشات جي بي تي"، إذ أعلنت في وقت سابق من هذا الشهر أن التكنولوجيا ستُدمج في محرك بحث بينغ الخاص بها وكذلك متصفح إيدج.
ثغرات
وأعلنت غوغل، التي ترى تهديداً مفاجئاً لهيمنة محرك البحث الخاص بها، أنها ستطلق قريباً لغتها الخاصة في مجال الذكاء الاصطناعي، وتحمل اسم بارد.
لكنّ تقارير عن ثغرات شابت عمليات تواصل مع روبوت المحادثة الخاص بمحرك بينغ التابع لمايكروسوفت، بينها توجيه تهديدات وحديث عن رغبة في سرقة رمز نووي، انتشرت على نطاق واسع، ما أعطى انطباعاً بأن التكنولوجيا ليست جاهزة بعد.
وأشارت ميتا إلى إن هذه المشكلات التي أظهرها الذكاء الاصطناعي عبر روبوتات المحادثة، والتي شبّهها البعض بالهلوسات، يمكن علاجها بشكل أفضل إذا تمكّن الباحثون من تحسين الوصول إلى هذه التكنولوجيا باهظة الثمن.
وقالت الشركة إن البحث الشامل "لا يزال محدوداً بسبب الموارد المطلوبة لتدريب مثل هذه النماذج الكبيرة وتشغيلها".
وأوضحت ميتا أن هذا الأمر يعيق الجهود "لتحسين قدرات" هذه التكنولوجيا، و"تخفيف المشكلات المعروفة، مثل التحيز" و"إمكانية توليد معلومات مضللة".