ووفق موقع «أكسيوس»، فإن كل تقنية جديدة تجلب معها أخطاءها، لكن أخطاء الذكاء الاصطناعي ستكون شائكة ومحبطة بشكل خاص لأنها مختلفة تماماً عن تلك التي اعتدنا عليها.
وتم تشغيل شبكة AT&T الخلوية وبرنامج الدردشة الآلي للذكاء الاصطناعي «Gemini» من «غوغل» في الأسبوع الماضي.
وحوالي الساعة 3:30 صباحاً من يوم الخميس، وردت تقارير عن انقطاع خدمة AT&T على الساحل الشرقي، واشتكى العملاء عبر «ريديت» و«إكس» وسجلوا مشكلاتهم على Downdetector، وهو موقع يكتشف متى تتعطل الخدمات.
ويبدو أن التأثير كان واسع النطاق، وأدى انهيار AT&T، بسبب «خطأ في تكوين البرنامج» إلى ترك آلاف العملاء من دون خدمة لاسلكية أثناء تنقلاتهم الصباحية.
كما لم يتمكن بعض المستخدمين في الولايات المتحدة من الاتصال برقم الطوارئ 911 نتيجة لانقطاع الخدمة. وبحلول الساعة 9 صباحاً بالتوقيت الشرقي، كان Downdetector يُظهر أكثر من 72000 انقطاع في خدمة AT&T في جميع أنحاء الولايات المتحدة.
ورغم أن حالة انقطاع الشبكة الذي يعلم صناع التكنولوجيا التعامل معه مألوفة، كان خطأ «غوغل» مختلفاً تماماً، إذ أحدث منشئ صور «Gemini» مجموعة متنوعة من الصور غير التاريخية الخاص به، مثلاً عندما طُلب منه تصوير الجنود النازيين، تضمن رسوماً توضيحية لأشخاص سود يرتدون الزي العسكر، وعندما طُلب منه رسم البابا، ظهرت صورة لامرأة ترتدي الثوب البابوي.
لقد كان هذا خطأ أكثر تعقيداً من خطأ AT&T. وأوقفت «غوغل» مؤقتاً جميع عمليات إنتاج صور الأشخاص باستخدام الذكاء الاصطناعي حتى تتمكن من حل المشكلة.
ووفق «أكسيوس»، «غوغل» كانت تتخذ احتياطات تشبه إلى حد كبير تلك التي تعلمت كل شركة ذكاء اصطناعي تطبيقها بعد سنوات من الأخطاء المحرجة، خصوصاً في عالم الصور البشرية، حيث بدا أن جميع الإرهابيين وفق الذكاء الاصطناعي لديهم بشرة داكنة، وكان كل طبيب ذكاء اصطناعي ذكراً أبيض.
وأشار الموقع إلى أنه في حادثتي AT&T و«غوغل»، فشلت الأنظمة بسبب ما طلب الناس من أجهزة الكومبيوتر القيام به. وتعطلت خدمة AT&T اللاسلكية عندما حاولت اتباع تعليمات جديدة تحتوي على خطأ أو تناقض تسبب في توقف النظام عن الاستجابة. هذه هي الطريقة التي حدثت بها معظم أعطال أجهزة الكومبيوتر منذ اختراعها.
لكن «أكسيوس» لفت أيضاً إلى أن معظم أنظمة الذكاء الاصطناعي لا تعمل بالأوامر والتعليمات، بل تستخدم «الأوزان» (الاحتمالات) لتشكيل المخرجات.
ويمكن للمطورين التدخل، ومن الواضح أنهم فعلوا ذلك مع «Gemini» لكنهم لم يحصلوا على النتائج التي يريدونها.
لا يمكن توقيف الذكاء الاصطناعي التوليدي عن «الإبداع»
وشرح الموقع أن «Gemini» غير قادر على «التفكير» بوضوح في الفرق بين البحث التاريخي والإبداع، وقال إن «النظام الأكثر ذكاءً، أو أي إنسان مطلع بشكل معقول، سيعلم أن الكنيسة الكاثوليكية في روما لم يكن لديها بابا ليس ذكراً».
وبحسب الموقع، فإن صنع الأشياء هو في صميم ما يفعله الذكاء الاصطناعي التوليدي، حيث تنظر البرامج التقليدية إلى قاعدة التعليمات البرمجية الخاصة بها لتنفيذ التعليمات التالية؛ ثم تقوم برامج الذكاء الاصطناعي التوليدية «بتخمين» الكلمة أو البكسل التالي في تسلسل بناءً على الإرشادات التي يقدمها الأشخاص لها.
يمكنك ضبط الذكاء الاصطناعي مما يجعل مخرجاته أكثر أو أقل عشوائية. لكن لا يمكنك إيقافه عن الإبداع، وإلا فلن يفعل أي شيء على الإطلاق.
وبالتالي، غالباً ما تكون الاختيارات التي تتخذها نماذج الذكاء الاصطناعي غامضة، وحتى منشئوها لا يفهمون تماماً كيفية عملها، وفق الموقع، لذلك عندما يحاول المطورون إضافة «حواجز حماية» لتنويع نتائج الصور على سبيل المثال أو الحد من الدعاية السياسية وخطاب الكراهية، فإن تدخلاتهم تؤدي إلى نتائج لا يمكن التنبؤ بها، ومن الممكن أن تأتي بنتائج عكسية. ولكن عدم التدخل سيؤدي إلى نتائج متحيزة ومزعجة أيضاً.
كلما «أبدع» الذكاء الاصطناعي ستزيد «هلوسته»
وأشار الموقع إلى أننا كلما حاولنا استخدام أنظمة الذكاء الاصطناعي التوليدية لتمثيل الواقع بدقة وتكون بمثابة أدوات معرفية، زادت إلحاحية محاولة الصناعة وضع حدود حول «الهلوسة» والأخطاء التاريخية.
وبمرور الوقت، ومع تعلم هذا المجال من الخبرة، يمكن لمبرمجي الذكاء الاصطناعي أن ينجحوا في ترويض وضبط نماذجهم لتكون أكثر واقعية وأقل تحيزاً. ولكن قد يتبين أن استخدام الذكاء الاصطناعي التوليدي واجهة أساسية للعمل المعرفي هو مجرد فكرة سيئة للغاية ستستمر في إرباكنا، وفق «أكسيوس».