أكد العالم البريطاني ستيوراد راسل – المعروف بإسهاماته في الذكاء الاصطناعي- أن أنظمة الذكاء الاصطناعي القوية لا يمكن السيطرة عليها.
كان البروفيسور ستيوارت راسل واحدًا من أكثر من 1000 خبير وقعوا في مارس الماضي على خطاب مفتوح يدعو إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أكثر قدرة من OpenAI’s GPT-4 التي تم إطلاقها حديثًا – خليفة برنامج الدردشة عبر الإنترنت ChatGPT وهو مدعوم من GPT-3.5
كيف تعمل الأنظمة الأكثر قوة؟
نقلت عن راسل قوله: “لقد وقعت على الخطاب لأنني أعتقد أنه يجب أن يقال إننا لا نفهم كيف تعمل هذه الأنظمة (الأكثر قوة). لا نعرف ما هي قادرة على انجازه. وهذا يعني أننا لا نستطيع السيطرة عليها”.
لفت إلى أن “الناس قلقون بشأن التضليل والتحيز العنصري والجنساني في مخرجات هذه الأنظمة”.
أضاف أن أحد أكبر المخاوف هو المعلومات المضللة والتزييف العميق (مقاطع فيديو أو صور لشخص تم تغيير وجهه أو جسده رقميًا بحيث يبدو أنه شخص آخر – يتم استخدامه عادةً بشكل ضار أو لنشر معلومات كاذبة).
قلق
حذر الخبير، وهو أستاذ علوم الكمبيوتر في جامعة كاليفورنيا من “التأثير الهائل لهذه الأنظمة إلى الأسوأ من خلال التلاعب بالناس بطرق لا يدركون حتى حدوثها”.
قال إن الصين وروسيا وكوريا الشمالية لديها فرق كبيرة “تضخ المعلومات المضللة” وباستخدام الذكاء الاصطناعي “أعطيناهم أداة قوية”.
أضاف “قلق الرسالة يتعلق حقًا بالجيل القادم من النظام. في الوقت الحالي، تعاني الأنظمة من بعض القيود في قدرتها على إنشاء خطط معقدة.”
تابع “أنه في ظل الجيل التالي من الأنظمة، أو الذي يليه، يمكن أن تدار الشركات بواسطة أنظمة الذكاء الاصطناعي. وأضاف: “يمكن أن ترى حملات عسكرية تنظمها أنظمة ذكاء اصطناعي”.
أضاف “إذا كنت تبني أنظمة أقوى من البشر، فكيف يحافظ البشر على سلطتهم على تلك الأنظمة إلى الأبد؟ هذا هو الشاغل الحقيقي وراء الرسالة المفتوحة.”
اقناع الحكومات
شدد الخبير على أنه ضرورة إقناع الحكومات بالحاجة إلى البدء في التخطيط للمستقبل عندما “نحتاج إلى تغيير الطريقة التي يعمل بها نظامنا البيئي الرقمي بأكمله”.
لفت إلى أنه منذ إصداره العام الماضي، حث ChatGPT التابع لشركة Microsoft OpenAI المدعوم من Microsoft ، المنافسين على تسريع تطوير نماذج لغات كبيرة مماثلة وشجع الشركات على دمج نماذج الذكاء الاصطناعي التوليدية في منتجاتها.