من المعروف أن هناك أشخاصا يمتلكون من الذكاء والفراسة ما يتيح لهم معرفة ما لم يقله الشخص الذي يتحدث إليهم من خلال نبرة صوته أو لغة جسده.
في المقابل، فإن القدرة على معرفة ما وراء الكلمات ليست متاحة للجميع، لكن البحث الذي أجراه الخبراء في معهد ماكس بلانك الألماني، يقول إن تقنيات الذكاء الاصطناعي يمكن أن تساعد في فهم أفضل للمشاعر التي لا يعبر عنها أصحابها.
يقول هانس دايمرلينغ، الباحث في معهد ماكس بلانك للتطور البشري، إنه يمكن تدريب تقنيات التعلم الآلي أو الذكاء الاصطناعي لكي تتعرف على المشاعر من خلال تحليل مسامع صوتية مدتها لا تزيد على 1.5 ثانية، مضيفا أن هذه التقنيات حققت مستوى من الدقة في التعرف على المشاعر، يماثل دقة البشر عندما يتعلق الأمر برصد مشاعر المرح أو الغضب أو الحزن أو الخوف أو المشاعر المحايدة أثناء الحديث.
وتوصل دايمرلينغ وزملاؤه في المعهد إلى هذه الاستنتاجات بعد اختبارات مبتكرة، يعتقدون أنها تظهر قدرة أو عدم قدرة نماذج الذكاء الاصطناعي على “التعرف الدقيق على المشاعر بغض النظر عن اللغة أو الفروق الثقافية أو المحتوى الدلالي للحديث”.
واستخدام الباحثون في المعهد الألماني مجموعات البيانات الكندية والألمانية، حيث توصلوا إلى أنه يمكن تحليل جمل “هراء” مرتبة في مقاطع صوتية مقسمة إلى ثانية ونصف، والتي يقولون إنها “المدة التي يحتاجها البشر للتعرف على المشاعر في الكلام” وأقصر فترة زمنية تتيح التحكم في المشاعر المتداخلة.
واعترف فريق الباحثين أن بحثهم الذي نشرت نتائجه في مجلة “حدود علم النفس” واجه “بعض القيود” بدون حل بعض المشكلات المتعلقة بتداخل الجمل غير ذات المعنى في الحياة الحقيقية.