أظهرت دراسة جديدة، أن اندفاع الشركات لاستخدام الذكاء الاصطناعي التوليدي، يؤدي إلى تصعيد مخاطر الخصوصية والأمن على الجمهور، وكذلك على الموظفين والعملاء وأصحاب المصلحة.
وتحذر الدراسة التي أجرتها جامعة «صن شاين كوست» الأسترالية، من أن تبني الذكاء الاصطناعي السريع يترك الشركات عرضة لعواقب واسعة النطاق، وتشمل هذه الخروق الجماعية للبيانات التي تكشف معلومات الطرف الثالث، وفشل الأعمال بناءً على نماذج الذكاء الاصطناعي التي تم التلاعب بها أو سواء كانت عرضية أو متعمدة.
وتضمنت الدراسة قائمة مرجعية من 5 نقاط للشركات لتنفيذ حلول الذكاء الاصطناعي بشكل أخلاقي:
وتتضمن القائمة المرجعية المكونة من خمس نقاط ما يلي:
1- تصميم نموذج الذكاء الاصطناعي الآمن والأخلاقي.
2- عملية جمع بيانات موثوقة وعادلة.
3- تخزين آمن للبيانات.
4- إعادة التدريب والصيانة لنموذج الذكاء الاصطناعي الأخلاقي.
5- رفع المهارات وتدريب وإدارة الموظفين.
وقال د. ديكلان همفريز، خبير الأمن السيبراني: «إن سباق الشركات لتبني حلول الذكاء الاصطناعي التوليدية مثل، «تشات جي بي تي» أو «بيرد» من «مايكروسوفت» لم يكن محفوفاً بالمشكلات الفنية فحسب، بل الأخلاقية أيضاً».
وتعمل تطبيقات الذكاء الاصطناعي التوليدية على تحويل كميات كبيرة من بيانات العالم الحقيقي إلى محتوى يبدو أنه تم إنشاؤه بواسطة البشر، ويعد «تشات جي بي تي» مثالاً لتطبيق الذكاء الاصطناعي.
وأضاف، «يُظهر البحث أن شركات التكنولوجيا ليست فقط هي التي تسارع إلى دمج الذكاء الاصطناعي في عملها اليومي، بل هناك مراكز اتصال، ومشغلو سلسلة التوريد، وصناديق الاستثمار، وشركات المبيعات، وتطوير المنتجات الجديدة، وإدارة الموارد البشرية، في حين أن هناك الكثير من الحديث حول تهديد الذكاء الاصطناعي للوظائف، أو خطر التحيز، إلا أن القليل من الشركات تفكر في مخاطر الأمن السيبراني».